Search (2644 results, page 2 of 133)

  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Berg, L.: Pablo will es wissen : Lernen mit Salman Khan (2012) 0.04
    0.03520302 = product of:
      0.14081208 = sum of:
        0.01469813 = weight(_text_:und in 228) [ClassicSimilarity], result of:
          0.01469813 = score(doc=228,freq=76.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.30190375 = fieldWeight in 228, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
        0.009118112 = weight(_text_:des in 228) [ClassicSimilarity], result of:
          0.009118112 = score(doc=228,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.14989316 = fieldWeight in 228, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
        0.053236578 = weight(_text_:unterrichts in 228) [ClassicSimilarity], result of:
          0.053236578 = score(doc=228,freq=4.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.27520362 = fieldWeight in 228, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
        0.010831225 = weight(_text_:der in 228) [ClassicSimilarity], result of:
          0.010831225 = score(doc=228,freq=40.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.22074346 = fieldWeight in 228, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
        0.038229913 = weight(_text_:unterricht in 228) [ClassicSimilarity], result of:
          0.038229913 = score(doc=228,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.2332119 = fieldWeight in 228, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
        0.01469813 = weight(_text_:und in 228) [ClassicSimilarity], result of:
          0.01469813 = score(doc=228,freq=76.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.30190375 = fieldWeight in 228, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=228)
      0.25 = coord(6/24)
    
    Abstract
    Sie kommen aus Familien, in denen es noch niemand auf ein College geschafft hat. 300 Migrantenkinder lernen in einer Schule am Rande des kalifornischen Silicon Valley mit Hilfe von Online-Lektionen.
    Content
    "East Palo Alto ist ein gefährlicher Ort. Baufällige Häuser, Vorgärten voller Müll und oft Schießereien auf offener Straße. Hier, fünfzig Kilometer von San Francisco entfernt, leben Immigranten aus Mexiko und viele verarmte schwarze Familien. Wer einen Job hat, arbeitet als Handlanger oder Hausmädchen für die Reichen im nahe gelegenen Silicon Valley. Die wohnen in den Villen um die Eliteuniversität Stanford oder bei den Zentralen von Apple, Google und anderen Weltfirmen. Früher gab es in East Palo Alto keine weiterführende Schule. Wer die High School besuchte, wurde im Bus in die besseren Viertel gebracht. Aber dann wurde Mitte der Neunzigerjahre die Eastside Preparatory School eröffnet, mitten im sozialen Brennpunkt. Es ist eine kleine, propere Anlage mit einstöckigen Gebäuden, die im Karree um eine Rasenfläche stehen. Gleich hinter der Eingangstür liegt das freundlich eingerichtete Büro der Schulsekretärin. Am Morgen begrüßt sie jedes der rund dreihundert Kinder und macht dann auch gleich einen Strich in der Anwesenheitsliste. Die Eastside Prep, so der Kurzname, ist eine private Ganztagsschule, die sich vorwiegend aus Spenden finanziert und die nur Kinder aus Familien aufnimmt, in denen es bisher noch niemand auf ein College geschafft hat. Es ist eine besondere Schule, mit kleinen Klassen, individueller Förderung und idealistischen Lehrern. Für die Schüler ist sie ein Sprungbrett in ein besseres Leben, und schon Tausende haben ihre Chance genutzt.
    Vier Schüler an einem Tisch Der vierzehnjährige Pablo ist fest entschlossen, etwas aus seinem Leben zu machen. Das wollen auch seine Eltern. Sie sind aus Mexiko in die USA gezogen, um ihren drei Kindern eine gute Ausbildung zu ermöglichen. Pablo will Software-Ingenieur werden, denn das ist ein sicherer Beruf mit Prestige und gutem Gehalt. Er ist ein ernster Junge, und er weiß, dass er einen langen Weg vor sich hat: erst die High School, dann das College und vielleicht sogar ein Studium auf der Universität. Zum Glück ist er sehr gut in der Schule, vor allem in Mathe. Immer wieder kommen Mitschüler zu ihm und suchen seinen Rat. Die Tische im Klassenraum sind so angeordnet, dass jeweils vier Schüler zusammensitzen, einige Kinder schreiben in ihre Hefte, andere arbeiten an Netbooks, die die Schule zur Verfügung stellt, in manchen Gruppen wird leise diskutiert. Die Lehrerin Jen Johnson, 32, sitzt mit zwei Schülern zusammen, sie üben quadratische Gleichungen. Die beiden haben den letzten Test nicht bestanden und brauchen jetzt Nachhilfe. Hin und wieder geht Jen zur Tafel und erklärt eine Aufgabe von allgemeiner Bedeutung, es folgt eine kurze Frage-Antwort-Runde, dann setzt sie sich wieder zu ihren Förderschülern. In ihrer Klasse ist es nicht zu laut und nicht zu leise, die Atmosphäre ist gelöst und doch ist konzentriertes Arbeiten möglich. Wie in einem schönen Café, an einem besonders guten Tag. Dass heute eine Besucherin dabei ist, scheint die Kinder nicht zu stören. Sie sind Gäste gewöhnt. Politiker waren schon bei ihnen, auch etliche Wissenschaftler. Könnte es sein, dass hier, im Umfeld des Silicon Valley, ein Zukunftsmodell zu besichtigen ist? Dass ausgerechnet in dieser schäbigen Gegend etwas entstanden ist, was Bildungsexperten für die Welt von morgen fordern: Schulen, in denen jedes Kind nach seiner Fasson gefördert wird und eigenständig lernen kann. Wo es nicht ums Aussortieren von Versagern, sondern um den Erfolg aller geht. Auch wenn sie eigentlich die geborenen Verlierer sind, wie die Kinder von East Palo Alto.
    Filme von verblüffender Schlichtheit Seit Anfang des Schuljahres erproben Jen und ihre Kollegen eine neue Form des Online-Unterrichts. Sie arbeiten dabei mit der Khan Academy zusammen, einer rasch expandierenden Bildungseinrichtung mit Sitz in Mountain View, im Zentrum des Silicon Valley. Ihr Kapital sind mehr als dreitausend selbst produzierte Videos mit kurzen Lektionen, vor allem in Mathematik und in den Natur- und Wirtschaftswissenschaften. Anders als manch andere Nachhilfe im Internet ist die Khan Academy kostenlos: Die Videos stehen bei Youtube, jeder kann sie ohne Anmeldung nutzen. Die Filme sind von verblüffender Schlichtheit. Oft ist nur die gutturale Stimme von Salman Khan zu hören, einem Mittdreißiger, der einmal Hedgefonds-Manager gewesen ist und sein pädagogisches Talent entdeckt hat, als er seiner Cousine Nachhilfeunterricht in Mathematik gab. Zu sehen gibt es in seinen Videos nicht viel: Oft sind es bloß Zahlen, Zeichen und Formeln, die wie von Zauberhand geschrieben auf einer Tafel erscheinen. Aber Salman Khan kann wunderbar erklären. Und er widmet sich den Problemen der Addition ebenso hingebungsvoll wie der Wahrscheinlichkeitsrechnung: Schritt für Schritt, mit trockenem Humor und bildhaften Beispielen. Etwa fünf Millionen Nutzer zählt die Academy pro Monat, Menschen aus mehr als zweihundert Ländern rufen die Seiten auf, deren Lektionen von Enthusiasten aus dem Englischen in die jeweiligen Landessprachen übersetzt werden - unter anderem ins Deutsche. Bisher hatten die Khan Academy und die traditionellen Schulen wenig miteinander zu tun, jetzt sollen die Videos in den Unterricht integriert werden. Davon verspricht sich die Bill-Gates-Stiftung, die das Projekt mit Millionensummen unterstützt, einen Qualitätsschub für Bildungseinrichtungen in aller Welt: Das Online-Curriculum aus dem Silicon Valley könnte Taktgeber und Messlatte sein, vor allem in ärmeren Ländern. Aber zunächst muss getestet werden, wie die Verzahnung mit dem Schulunterricht funktioniert. Zu diesem Zweck begann vor einem Jahr ein Großversuch in hundert Klassen im Großraum San Francisco. Die Eastside Prep ist mit dabei. Pablo, das Mathe-As, schätzt die Khan-Lektionen. "Wenn ich etwas vergessen habe, schaue ich mir das passende Video an, dann bin ich gleich wieder im Stoff." Seine Lehrerin verteilt zu Beginn jeder neuen Unterrichtseinheit selbst erarbeitete Mappen mit Aufgaben aus dem Lehrbuch und Hinweisen auf passende Khan-Videos. Auf diese Weise verknüpft sie den staatlichen Lehrplan mit dem Zusatzangebot im Internet.
    Kaum schlechte Noten Auch die Filme enthalten Übungen, und die Schüler sind aufgefordert, diese während des Unterrichts zu absolvieren. Jen Johnson kann mit ihrem Laptop verfolgen, wie ihre Schüler abschneiden, und sie bemerkt sofort, dass Alexandro nicht mitkommt. "Ich werde morgen mit ihm arbeiten", sagt sie. "Früher hätte ich seine Probleme erst nach einer Fünf im Test erkannt." Schlechte Noten gebe es in diesem Schuljahr kaum. Vor der Klassenarbeit würden die Schüler an ihren Schwächen arbeiten - mit den Videos hätten sie ein gutes Werkzeug dafür. Die kompakte Form der Lektionen, die sofortige Rückmeldung bei Fehlern, all das kommt den Bedürfnissen einer Jugend, die mit dem Internet aufgewachsen ist, entgegen. Und was ist mit der Idee, die Online-Lektionen als alleiniges Lehrmittel einzusetzen? Das wäre nicht sinnvoll, heißt es an der Eastside Prep. Nach wie vor seien Lehrer nötig, um den Kurs vorzugeben und zu halten, zu motivieren und Hilfe zu leisten. Aber verzichten möchte an dieser Schule offenbar niemand mehr auf die Khan'sche Kollektion. Sie ist einfach zu gut, um Löcher zu stopfen. Mathematik, so sagt Salman Khan in seinen Vorträgen gern, Mathematik sei bei den meisten Menschen ein großer Emmentaler: Hier und da gibt es etwas Substanz, aber zwischendrin ist viel Luft. Und die Khan Academy, das sei die Verwandlung von Luft in Substanz. Akademische Alchemie sozusagen. Eine große Bühne bot sich dem Internetlehrer im vergangenen Jahr bei einem renommierten Online-Talk. Steve Jobs ist dort aufgetreten, Isabel Allende und Al Gore. Khans Beitrag inspirierte den deutschen Informatiker Sebastian Thrun dazu, das Konzept auf die Hochschulbildung zu übertragen (siehe nebenstehenden Beitrag). Die Khan Academy selbst konzentriert sich weiter auf die Schule und zwar mit Blick auf die ganze Welt. An dieser Stelle kommt Bilal Musharraf ins Spiel. Der introvertierte Mann fungiert sozusagen als Khans Außenminister. Mit 18 Jahren kam Bilal zum Studium in die USA - und ist geblieben. Sein Vater ist der ehemalige pakistanische Präsident General Pervez Musharraf, doch wenn die Rede auf seine Familie kommt, wird der Sohn einsilbig. Viel lieber spricht er über Entwicklungspolitik und wie wichtig es wäre, in Breitband-Internetverbindungen für Drittweltländer zu investieren, die dann für den Online-Unterricht genutzt werden könnten. Die Academy-Videos sind als Teil eines weltumspannenden Curriculums denkbar. Vorausgesetzt, dass die versprochenen Fördermittel fließen, werden die Kurse bald komplett in die zehn wichtigsten Sprachen übersetzt, auch ins Deutsche. Denn East Palo Alto gibt es überall. Zum Glück auch Lehrer wie Jen Johnsonund Kinder wie Pablo."
  2. Delahaye, J.-P.: Intelligenz bei Mensch und Maschine (2016) 0.04
    0.035154227 = product of:
      0.1687403 = sum of:
        0.010458209 = product of:
          0.031374626 = sum of:
            0.031374626 = weight(_text_:p in 3256) [ClassicSimilarity], result of:
              0.031374626 = score(doc=3256,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.39725178 = fieldWeight in 3256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3256)
          0.33333334 = coord(1/3)
        0.016859911 = weight(_text_:und in 3256) [ClassicSimilarity], result of:
          0.016859911 = score(doc=3256,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 3256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3256)
        0.107436605 = weight(_text_:spezielle in 3256) [ClassicSimilarity], result of:
          0.107436605 = score(doc=3256,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.73511064 = fieldWeight in 3256, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.078125 = fieldNorm(doc=3256)
        0.01712567 = weight(_text_:der in 3256) [ClassicSimilarity], result of:
          0.01712567 = score(doc=3256,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 3256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3256)
        0.016859911 = weight(_text_:und in 3256) [ClassicSimilarity], result of:
          0.016859911 = score(doc=3256,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 3256, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3256)
      0.20833333 = coord(5/24)
    
    Abstract
    Manche Computer vollbringen zweifellos intelligente Leistungen - aber nur sehr spezielle und stets auf anderem Weg als der Mensch. Ein neuer theoretischer Ansatz zielt darauf ab, diese Kluft zu überbrücken.
    Source
    Spektrum der Wissenschaft. 2016, H.3, S.78-85
  3. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.03
    0.034580164 = product of:
      0.13832065 = sum of:
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015793033 = weight(_text_:des in 2248) [ClassicSimilarity], result of:
          0.015793033 = score(doc=2248,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 2248, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.016246837 = weight(_text_:der in 2248) [ClassicSimilarity], result of:
          0.016246837 = score(doc=2248,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 2248, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015604623 = product of:
          0.031209245 = sum of:
            0.031209245 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
              0.031209245 = score(doc=2248,freq=6.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.40390027 = fieldWeight in 2248, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.065897256 = sum of:
          0.048040684 = weight(_text_:deutschland in 2248) [ClassicSimilarity], result of:
            0.048040684 = score(doc=2248,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.4528082 = fieldWeight in 2248, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.017856576 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
            0.017856576 = score(doc=2248,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
      0.25 = coord(6/24)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Content
    https://www.o-bib.de/article/view/2017H4S22-29. DOI: https://doi.org/10.5282/o-bib/2017H4S22-29.
    Footnote
    Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  4. Hassemer, W.: Haltet den geborenen Dieb! (2010) 0.03
    0.03346783 = product of:
      0.10040348 = sum of:
        0.0020916418 = product of:
          0.006274925 = sum of:
            0.006274925 = weight(_text_:p in 173) [ClassicSimilarity], result of:
              0.006274925 = score(doc=173,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.079450354 = fieldWeight in 173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.015625 = fieldNorm(doc=173)
          0.33333334 = coord(1/3)
        0.017521333 = weight(_text_:und in 173) [ClassicSimilarity], result of:
          0.017521333 = score(doc=173,freq=108.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 173, product of:
              10.392304 = tf(freq=108.0), with freq of:
                108.0 = termFreq=108.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.009118112 = weight(_text_:des in 173) [ClassicSimilarity], result of:
          0.009118112 = score(doc=173,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.14989316 = fieldWeight in 173, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.012583274 = weight(_text_:fragen in 173) [ClassicSimilarity], result of:
          0.012583274 = score(doc=173,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.112509295 = fieldWeight in 173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.016246837 = weight(_text_:der in 173) [ClassicSimilarity], result of:
          0.016246837 = score(doc=173,freq=90.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 173, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.022344856 = weight(_text_:allgemeines in 173) [ClassicSimilarity], result of:
          0.022344856 = score(doc=173,freq=4.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.17829446 = fieldWeight in 173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.017521333 = weight(_text_:und in 173) [ClassicSimilarity], result of:
          0.017521333 = score(doc=173,freq=108.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 173, product of:
              10.392304 = tf(freq=108.0), with freq of:
                108.0 = termFreq=108.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=173)
        0.002976096 = product of:
          0.005952192 = sum of:
            0.005952192 = weight(_text_:22 in 173) [ClassicSimilarity], result of:
              0.005952192 = score(doc=173,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.07738023 = fieldWeight in 173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=173)
          0.5 = coord(1/2)
      0.33333334 = coord(8/24)
    
    Abstract
    Muss das Strafrecht geändert werden, weil Hirnforscher die Möglichkeit von Freiheit, Schuld und Verantwortlichkeit bestreiten? Ein Plädoyer für reife Rationalität.
    Content
    "Die Strafrechtler haben die Sirenen der Neurowissenschaften nicht herbeigesehnt, die meisten von uns sind auch nicht süchtig nach ihren Liedern, aber ihr Gesang ist mittlerweile so angeschwollen, dass wir die Ohren vor ihm nicht mehr verschließen können. Inhaltlich, strategisch und rhetorisch erinnert mich der Gesang an die beiden Wellen, welche das Strafrecht und vor allem seine Wissenschaft in der noch sichtbaren Vergangenheit erreicht haben: die italienischen Menschenvermesser wie Lombroso und Ferri, die mit dem Selbstbewusstsein und der Durchschlagskraft der jungen exakten Naturwissenschaften dem Schuldstrafrecht ins Herz gezielt haben, als sie den "geborenen Verbrecher" ausmachten und vorführten, und Psychologen und Gesellschaftswissenschaftler wie Arno Plack, die auf der Woge der intellektuellen Institutionenkritik und Systemzertrümmerung der siebziger Jahre für die Abschaffung des Strafrechts plädiert, als Alternative freilich nichts Besseres zu bieten hatten als ein trostloses und unfreundlicheres Maßregelrecht.
    Der Pathologe findet die Seele nicht Es gibt eine Todsünde auf dem Gebiet der Erkenntnis- und Wissenschaftstheorie. Ich nenne sie Kategorienfehler und sehe, dass sie häufig von übermütigen Humanbiologen, nicht selten aber auch von verschreckten Strafrechtswissenschaftlern begangen wird. Humanbiologen begehen diese Sünde mittels der Überzeugung, ihre Ergebnisse widerlegten die Möglichkeit von Willensfreiheit und Verantwortlichkeit; Strafrechtswissenschaftler begehen diese Sünde mittels der Überzeugung, die Humanbiologen hätten recht und nun sei das Strafrecht umzustellen und das im Strafprozess notwendige Wissen neu zu vermessen. Während die Theologie ihren Kategorienfehler, sie könne die Entstehung der Erde erklären, in der westlichen Kultur bis auf einige kreationistische Überbleibsel längst gebüßt hat, goutieren nicht wenige unter uns noch die Sottise des Pathologen, er habe beim Aufschneiden der Leiche eine Seele nicht entdeckt - und folglich könne es sie nicht geben.
    Es gibt kein allgemeines Konzept von Freiheit Der Kategorienfehler in den Neurowissenschaften besteht in der Annahme, empirisch arbeitende Wissenschaften könnten wissenschaftlich darüber befinden, ob andere Wissenschaften ein Konzept von Freiheit entwickeln dürfen oder nicht, also: ob es Freiheit "gibt" oder nicht. Eine solche Annahme setzt eine Hegemonie unter Wissenschaften zwingend voraus, und diese Hegemonie gibt es nicht. Es gibt auch kein allgemeines Konzept von Freiheit, das über allen Wissenschaften schwebt, und es gibt schon gar keine Verfügungsmacht der empirischen Wissenschaften, gäbe es ein solches Konzept. Zur Struktur der Strafrechtswissenschaft gehört das fundamentale Konzept der Verantwortlichkeit, und dieses Konzept ist auch in unserer alltäglichen Verständigung tief begründet. Es ruht auf einem Pfeiler der europäischen Kultur, nämlich auf dem Grundsatz von Personalität und Menschenwürde, der nicht erst mit Artikel 1 Grundgesetz für uns bestimmend geworden ist, sondern für jedes Nachdenken über Mensch, Gesellschaft und Staat auf der Höhe der Zeit.
    Ohne das Prinzip der Zurechnung wäre unsere Welt gänzlich anders Der Grundsatz der Menschenwürde, manifestiert im Konzept der Person, durchzieht unsere gesamte Rechtsordnung wie ein roter Faden, vom Kindeswohl im Familienrecht bis zur Subjektstellung der an den rechtlichen Verfahren Beteiligten. Im materiellen Strafrecht wird er wirksam vor allem im Prinzip der Zurechnung; dieses Prinzip nimmt eine alltägliche Orientierung auf und bildet sie für die besondere Struktur des Strafrechts ab; ohne das Prinzip der Zurechnung wäre unsere Welt gänzlich anders - im Recht und im Alltag. Zu dieser Wirklichkeit haben die empirischen Wissenschaften vom Menschen keinen unmittelbaren und keinen vollständigen Zugang. Subjektive Zurechnung stiftet den Zusammenhang von Ereignis und Verantwortlichkeit des Menschen, der das Ereignis verursacht hat. Sie begründet Schuld. Sie setzt objektive Zurechenbarkeit voraus und treibt deren Fragestellung bis zum Konzept der Person voran. Subjektive Zurechnung erlaubt die rationale Unterscheidung und Bewertung von Graden des Dafür-Könnens, der inneren Beteiligung des Menschen an seiner Tat, von der Absicht bis zur unbewussten Fahrlässigkeit. Auch diese Unterscheidung gehört zur Kultur der Zurechnung und ist in unserem normativen Alltag tief verankert.
    Die Wahrnehmung zielt auf die Person Die Verletzung aus Unachtsamkeit ist für uns etwas ganz anderes als die Verletzung mit Bedacht - etwas anderes nicht objektiv, wohl aber subjektiv, personal. Diese Unterscheidung lässt sich überhaupt erst wahrnehmen, wenn die verantwortliche Person zum Arsenal der wissenschaftlichen Struktur gehört. Wer - aus welchen Gründen immer - bestreitet, dass Menschen verantwortlich sein können für das, was sie tun, entfernt einen Schlussstein nicht nur aus unserer Rechtsordnung, sondern aus unserer Welt. Er tastet die normative Grundlage unseres sozialen Umgangs an, die Anerkennung als Personen. Basis dieser Anerkennung ist die wechselseitige Erwartung, das menschliche Gegenüber begegne uns nicht als ein System aus Knochen, Muskeln und Nerven, sondern nehme uns ebenfalls als Person wahr und richte sich nach dieser Wahrnehmung. Ohne wechselseitigen Kredit können wir nicht miteinander leben Wir schreiben dem anderen, wenn nicht Gegenindikatoren sichtbar sind, die Verantwortlichkeit zu, die wir an uns selbst erfahren und die wir für uns in Anspruch nehmen - nicht weil das humanwissenschaftlich bestätigt oder widerlegt wäre, sondern weil wir ohne diesen wechselseitigen Kredit nicht miteinander leben könnten. Wir haben unsere Erfahrungen damit, welche und wie viel Verantwortlichkeit wir erwarten dürfen - von Kindern, Pubertierenden, Senilen, Betrunkenen, von Egoisten und Feiglingen, und wir sind dabei oft, schmerzlich und überraschend korrigiert worden. Das hat uns aber nicht davon überzeugt, dass unsere Welt von menschlichen Maschinen bevölkert sei. Dies alles tun wir nicht deshalb, weil wir die jüngste humanbiologische Widerlegung von Verantwortlichkeit noch nicht zur Kenntnis genommen oder nicht verstanden haben; ich rechne auch nicht damit, dass sich an der wechselseitigen Anerkennung von Personen und an der Zuschreibung von Verantwortlichkeit in unserem Alltag und im Rechtssystem Wesentliches ändern wird, wenn sich die humanbiologischen Erkenntnisse herumgesprochen haben sollten.
    Im Strafgesetzbuch spürt man nichts von der Freiheitsrhetorik Dies deshalb, weil Verantwortlichkeit und Zurechnung nicht auf humanbiologischen Erkenntnissen, sondern auf sozialen Gründen beruhen. Sie überleben nicht aus Unkenntnis und Unvernunft, sondern aus Einsicht und Erfahrung. Sie öffnen sich einer empirischen Betrachtungsweise nur insoweit, als diese Betrachtungsweise einen Blick für das Soziale und das Normative hat: als sie sehen kann, dass Menschen mittels wechselseitiger Zuschreibung von Verantwortlichkeit miteinander umgehen, und als sie verstehen kann, dass sie dafür ihre guten Gründe haben. Im Strafgesetzbuch spürt man nichts von der Freiheitsrhetorik, welche die deutsche Strafrechtswissenschaft und, ihr folgend, die Strafrechtspraxis an den Tag legen. Das Gesetz nämlich gibt sich ganz anders als feierlich; es ist vorsichtig und zurückhaltend formuliert, und es realisiert in dieser Zurückhaltung einen klugen Umgang mit dem Merkmal der Schuld im Strafrecht. Daran kann, so meine ich, auch der wissenschaftliche Diskurs lernen. Eine reife Form von Rationalität Für unseren Zusammenhang entscheidend ist, dass § 20 Strafgesetzbuch (StGB) - und, ihm sachlich folgend, § 21 StGB - keine positive Feststellung der Schuld eines Menschen in einem bestimmten Einzelfall verlangt und deshalb auch keine Feststellung von Freiheit und Anders-handeln-Können in einer bestimmten Situation. Er verlangt etwas anderes: die Abwesenheit von Störungen, welche die Schuldunfähigkeit begründen würden. Er ordnet kein positives, sondern ein doppelt negatives Verfahren an. Positive Feststellung von Freiheit und Schuld einerseits und doppelt negativer Ausschluss von Schuldausschlussgründen andererseits mögen in einem formallogischen System auf dasselbe hinauslaufen; für die richterliche Praxis realisieren sie einen fundamentalen Unterschied. Nach § 20 StGB ist der Richter nicht gezwungen, sich Fragen zu stellen, die er nicht beantworten kann, Wissen zu sammeln, das er nicht finden kann, und Beweise zu führen, die er nicht beherrscht. Sein Programm ist auf seine Erkenntnismöglichkeiten reduziert, es steht mit ihnen in Einklang. Das ist, so behaupte ich, eine reife Form von Rationalität: Ein solches Beweisverfahren verlangt Feststellungen nur insoweit, als sie mit den Möglichkeiten menschlicher Erkenntnis kategorial zusammenpassen."
    Footnote
    Vgl. die Erwiderungs- und Fortsetzungsbeiträge: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4). [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Vgl.: http://www.faz.net/s/RubCF3AEB154CE64960822FA5429A182360/Doc~E384DC40FFB99469F8C26751F979BFCBF~ATpl~Ecommon~Scontent~Afor~Eprint.html.
  5. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.03
    0.032473855 = product of:
      0.11133893 = sum of:
        0.01558972 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.01558972 = score(doc=3080,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.016751042 = weight(_text_:des in 3080) [ClassicSimilarity], result of:
          0.016751042 = score(doc=3080,freq=18.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.27537134 = fieldWeight in 3080, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.032692306 = weight(_text_:fragen in 3080) [ClassicSimilarity], result of:
          0.032692306 = score(doc=3080,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.29230773 = fieldWeight in 3080, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.01989823 = weight(_text_:der in 3080) [ClassicSimilarity], result of:
          0.01989823 = score(doc=3080,freq=60.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40553164 = fieldWeight in 3080, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.004504666 = product of:
          0.009009332 = sum of:
            0.009009332 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.009009332 = score(doc=3080,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
        0.01558972 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.01558972 = score(doc=3080,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.006313253 = product of:
          0.012626506 = sum of:
            0.012626506 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.012626506 = score(doc=3080,freq=4.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
    Date
    24. 8.2016 9:29:24
  6. Wiesenmüller, H.: Zeitenwende in der Katalogisierung : vom RAK- zum RDA-Unterricht (2017) 0.03
    0.032383233 = product of:
      0.1942994 = sum of:
        0.0071530542 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
          0.0071530542 = score(doc=3464,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.14692576 = fieldWeight in 3464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.017797519 = weight(_text_:der in 3464) [ClassicSimilarity], result of:
          0.017797519 = score(doc=3464,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 3464, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.16219577 = weight(_text_:unterricht in 3464) [ClassicSimilarity], result of:
          0.16219577 = score(doc=3464,freq=8.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.98943424 = fieldWeight in 3464, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
        0.0071530542 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
          0.0071530542 = score(doc=3464,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.14692576 = fieldWeight in 3464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3464)
      0.16666667 = coord(4/24)
    
    Abstract
    Der Beitrag beschreibt die Umstellung der Lehre vom bisherigen Katalogisierungsregelwerk RAK auf den neuen Standard RDA im Studiengang Bibliotheksund Informationsmanagement an der Stuttgarter Hochschule der Medien (HdM). Schon seit langem wurden Informationen zu RDA in den Unterricht integriert. Seit 2014/15 beginnen die Studienanfänger mit RDA; für die "Umsteiger", die noch mit RAK begonnen hatten, gibt es besondere Angebote. Das zugrundeliegende FRBR-Modell stellt die Studierenden kaum vor Probleme. Jedoch lassen sich viele Aspekte von RDA in realen Erfassungsformaten nur schwer erkennen, weshalb im Unterricht teilweise mit formatfreien Katalogisaten in tabellarischer Form gearbeitet wird. Anders als RAK bietet RDA den Katalogisierern viele Ermessensspielraume, worauf man sich im Unterricht einstellen muss. Die älteren Standards RAK und ISBD spielen in der Lehre nur noch eine untergeordnete Rolle.
  7. Koch, M.: ¬Das Wissen der Welt : vor 300 Jahren wurde der Mathematiker und Enzyklopädist Jean-Baptiste le Rond d'Alembert geboren (2017) 0.03
    0.03175096 = product of:
      0.12700383 = sum of:
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.016118698 = weight(_text_:des in 4688) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4688,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4688, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.025688507 = weight(_text_:der in 4688) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4688,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4688, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.0395005 = weight(_text_:allgemeines in 4688) [ClassicSimilarity], result of:
          0.0395005 = score(doc=4688,freq=2.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.31518307 = fieldWeight in 4688, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 4688) [ClassicSimilarity], result of:
              0.028308243 = score(doc=4688,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 4688, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4688)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Bis heute findet sich der Name des französischen Gelehrten und Mathematikers Jean-Baptiste le Rond d'Alembert in vielen Geschichtsbüchern. Das hat vor allem einen Grund: Gemeinsam mit dem Philosophen Denis Diderot gab d'Alembert eines der wichtigsten Werke der Aufklärung heraus. Dessen etwas ausladender Titel lautet: »Enzyklopädie oder ein durchdachtes Wörterbuch der Wissenschaften, Künste und Handwerke«. Ziel der Herausgeber war es, »ein allgemeines Bild der Anstrengungen des menschlichen Geistes auf allen Gebieten und in allen Jahrhunderten zu entwerfen«. An der Abfassung der mehr als 70 000 Enzyklopädie-Artikel beteiligte sich fast die gesamte geistige Elite Frankreichs, darunter Jean-Jacques Rousseau, Voltaire und Montesquieu. Der erste Band erschien 1751 und enthielt ein viel beachtetes Vorwort von d'Alembert, der gelegentlich erklärte: Das Wissen der Menschheit stamme nicht von einem Monarchen oder aus Rom, sondern vom individuellen Sinn und Verstand. Erwartungsgemäß stand der französische König Ludwig XV. dem Werk ebenso ablehnend gegenüber wie Papst Clemens XIII., der die Enzyklopädie 1759 auf den Index der verbotenen Bücher setzen ließ. Doch alle Versuche, den Fortgang des Projekts zu verhindern, scheiterten. Zuletzt umfasste das aufklärerische Mammutwerk 35 Bände; den Schluss bildete 1780 ein zweibändiges Register.
    Source
    Neues Deutschland. 2017, S.26 [https://www.neues-deutschland.de/artikel/1069694.das-wissen-der-welt.html]
    Theme
    Geschichte der Klassifikationssysteme
  8. Neues aus der Redaktion der SfB (2013) 0.03
    0.031687185 = product of:
      0.12674874 = sum of:
        0.016519273 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.016519273 = score(doc=592,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 592, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
        0.0074449074 = weight(_text_:des in 592) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=592,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
        0.04297464 = weight(_text_:spezielle in 592) [ClassicSimilarity], result of:
          0.04297464 = score(doc=592,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.29404426 = fieldWeight in 592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
        0.025166549 = weight(_text_:fragen in 592) [ClassicSimilarity], result of:
          0.025166549 = score(doc=592,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
        0.018124105 = weight(_text_:der in 592) [ClassicSimilarity], result of:
          0.018124105 = score(doc=592,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36937445 = fieldWeight in 592, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
        0.016519273 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.016519273 = score(doc=592,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 592, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=592)
      0.25 = coord(6/24)
    
    Content
    "Die "Systematik für Bibliotheken" (SfB) wird als Systematik für Öffentliche Bibliotheken durch die Kooperation der Büchereizentrale Schleswig Holstein, der Stadtbibliothek Bremen, der Stadtbücherei Frankfurt am Main und der Stadtbibliothek Hannover gepflegt. Ein weiterer wichtiger Partner ist die ekz, die sich sowohl an der fachlichen Weiterentwicklung der SfB beteiligt als auch das Hosting für die Sm-online (www.sfb-online.de) leistet. Alljährlich wird ein Update veröffentlicht, zu dem jeweils eine Systematikgruppe strukturell umgearbeitet wird und in den anderen Fächern bedarfsabhängig sachliche oder terminologische Aktualisierungen vorgenommen werden. Alle Änderungen werden detailliert dokumentiert. Zum Update 2013 wurde "Medizin" überarbeitet. Spezialisierungen aus Zeiten großer Sachbuchbestände, z. B. "Raumfahrtmedizin", wurden gestrichen, an Bedeutung gewinnende Themen ergänzt. So berücksichtigt die Systematik jetzt neue Strukturen und Berufsbezeichnungen im Gesundheitswesen und in der Krankenpflege: aus "Arzt. Medizinisches Hilfspersonal" wurden "Heilberufe. Gesundheitsfachberufe", denn Schwestern sind an den Krankenbetten passé, heute arbeiten dort Gesundheits- und Krankenpfleger/innen. Die Palliativpflege und Sterbebegleitung wurde aus dem Zusammenhang der "Medizinischen Ethik" in die "Gesundheitspflege" verschoben, da in unserer Gesellschaft inzwischen Konsens darüber besteht, dass Menschen in Würde sterben sollen. Der alternden Gesellschaft trägt nicht nur die Nachfrage in Bibliotheken, sondern nun auch die SfB mit neuen Notationen im "Gesundheitswesen" für Altenpflege und Ambulante Hilfs- und Pflegedienste sowie in der "Geriatrie" für Demenzerkrankungen Rechnung. Neben Veränderungen bereits vorhandener sind auch neue Themen berücksichtigt: Eine neue Stelle "Gewichtsprobleme" im Bereich Gesundheitspflege nimmt Medien auf, die, dem wachsendem Gesundheitsbewusstsein entsprechend, nicht Diäten als Patentrezept, sondern ein generelles Umdenken im Umgang mit dem eigenen Gewicht behandeln. Als sich 2011 mit dem VÖBB Berlin ein großes Bibliothekssystem entschied, seine Bestände künftig nach SfB zu systematisieren, wurde für nahezu alle Fächer eine kurze Einführung in die Anwendungspraxis erarbeitet. Sie bietet vor allem SfB-Einsteigern eine übersichtliche Orientierungshilfe. Neben einer kurzen Gliederung des Fachs, gibt es Hinweise auf Themenkomplexe sowie auf inhaltliche Überschneidungen mit anderen Sachgebieten. In Verbindung mit den übrigen Verweisungen erleichtern diese Abgrenzungen die systematische Zuordnung. Kontinuierlich werden zudem aus der täglichen Praxis heraus spezielle Hinweise zum sachgerechten Systematisieren in den Sachgebieten hinterlegt. Mit einem Klick auf eine blau unterlegte Notation, z. B. Th 535, können sie aufgerufen werden. Anregungen ihrer Anwender sind der SfB-Kooperation immer willkommen. Zuletzt wurde auf vielfältigen Wunsch hin die Zusatzvereinbarung zur SfB zur Kinder- und Jugendliteratursystematik um die Bereiche "Fantasy" und "Krimi" erweitert. Sind Sie neugierig geworden? Alle Neuerungen, die vollständige SfB und ihre Ansprechpartner für Anregungen, Fragen und Kritik finden Sie unter www.sfb-online.de."
  9. Behrens-Neumann, R.: Aus der 61. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2011 in Frankfurt am Main (2012) 0.03
    0.03108301 = product of:
      0.12433204 = sum of:
        0.021326289 = weight(_text_:und in 4880) [ClassicSimilarity], result of:
          0.021326289 = score(doc=4880,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 4880, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4880)
        0.014889815 = weight(_text_:des in 4880) [ClassicSimilarity], result of:
          0.014889815 = score(doc=4880,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 4880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4880)
        0.032130606 = weight(_text_:der in 4880) [ClassicSimilarity], result of:
          0.032130606 = score(doc=4880,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.65483093 = fieldWeight in 4880, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4880)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 4880) [ClassicSimilarity], result of:
              0.024024887 = score(doc=4880,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 4880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4880)
          0.5 = coord(1/2)
        0.021326289 = weight(_text_:und in 4880) [ClassicSimilarity], result of:
          0.021326289 = score(doc=4880,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 4880, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4880)
        0.022646595 = product of:
          0.04529319 = sum of:
            0.04529319 = weight(_text_:deutschland in 4880) [ClassicSimilarity], result of:
              0.04529319 = score(doc=4880,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.42691165 = fieldWeight in 4880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4880)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Am 23. und 24. November 2011 fand die 61. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung des Hessischen Bibliotheks- und Informationssystems (HeBIS) statt. Der folgende Bericht gibt einen Überblick über die gemeinsamen Aktivitäten der deutschsprachigen Verbünde aus Deutschland, Österreich und der Schweiz sowie eine Übersicht der aktuellen Arbeiten und Projekte der Mitglieder der AG Verbund mit Stand Dezember 2011.
    Date
    29. 5.2012 18:32:18
  10. Fuchs, C.; Pampel, H.; Vierkant, P.: ORCID in Deutschland : Ergebnisse einer Bestandsaufnahme im Jahr 2016 (2017) 0.03
    0.030245189 = product of:
      0.120980754 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 3857) [ClassicSimilarity], result of:
              0.018824775 = score(doc=3857,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 3857, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.33333334 = coord(1/3)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.022334723 = weight(_text_:des in 3857) [ClassicSimilarity], result of:
          0.022334723 = score(doc=3857,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 3857, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.020550804 = weight(_text_:der in 3857) [ClassicSimilarity], result of:
          0.020550804 = score(doc=3857,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4188313 = fieldWeight in 3857, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.033969894 = product of:
          0.06793979 = sum of:
            0.06793979 = weight(_text_:deutschland in 3857) [ClassicSimilarity], result of:
              0.06793979 = score(doc=3857,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.6403675 = fieldWeight in 3857, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Open Researcher and Contributor ID, kurz ORCID, ist eine eindeutige Kennung für Forscherinnen und Forscher und ermöglicht die Verbindung zwischen Wissenschaftlerinnen und Wissenschaftlern mit ihren Aufsätzen, Forschungsdaten und weiteren Produkten des wissenschaftlichen Schaffens. Im Rahmen des dreijährigen DFG-Projektes "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" wird die vielerorts erwogene Implementierung der ORCID an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert. Der vorliegende Beitrag bietet einen umfassenden Überblick über die Ergebnisse der im Rahmen des Projekts durchgeführten Umfrage zum Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland. Die Umfrage wurde im Zeitraum vom 13.07.2016 bis 03.08.2016 durchgeführt und bietet zahlreiche Erkenntnisse sowohl über den Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland als auch über bestehende technische, rechtliche und organisatorische Hürden bei der Implementierung des Dienstes.
    Content
    https://www.o-bib.de/article/view/2017H2S35-55. DOI: https://doi.org/10.5282/o-bib/2017H2S35-55. Vgl. auch das Positionspapier "Autorenidentifikation anhand der Open Researcher and Contributor ID" unter: https://doi.org/10.18452/19528.
  11. Gierke, B.; Mangei, J.; Merz, D.; Simon, S.: Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : ein Werkstattbericht (2019) 0.03
    0.029629592 = product of:
      0.14222205 = sum of:
        0.023361778 = weight(_text_:und in 5108) [ClassicSimilarity], result of:
          0.023361778 = score(doc=5108,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 5108, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
        0.025789918 = weight(_text_:des in 5108) [ClassicSimilarity], result of:
          0.025789918 = score(doc=5108,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 5108, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
        0.050333098 = weight(_text_:fragen in 5108) [ClassicSimilarity], result of:
          0.050333098 = score(doc=5108,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.45003718 = fieldWeight in 5108, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
        0.019375484 = weight(_text_:der in 5108) [ClassicSimilarity], result of:
          0.019375484 = score(doc=5108,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 5108, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
        0.023361778 = weight(_text_:und in 5108) [ClassicSimilarity], result of:
          0.023361778 = score(doc=5108,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 5108, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5108)
      0.20833333 = coord(5/24)
    
    Abstract
    Nach einem kurzen Rückblick auf die Vorgeschichte des Fachinformationsdienstes Buch-, Bibliotheks- und Informationswissenschaft (FID BBI) sowie einer Skizze zum Stand der Fachinformationsdienste im Allgemeinen bietet der vorliegende Bericht aus der Werkstatt des FID BBI vor allem Aussagen zu den Erwerbungskriterien des Dienstes und Informationen zu dem kürzlich freigeschalteten Portal. Die Angaben sollen dem Austausch mit der bibliothekarischen und fachlichen Community dienen und schließen daher auch offene Fragen und noch unerreichte Meilensteine ein.
  12. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.03
    0.029612385 = product of:
      0.14213945 = sum of:
        0.011801938 = weight(_text_:und in 4667) [ClassicSimilarity], result of:
          0.011801938 = score(doc=4667,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 4667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.022566179 = weight(_text_:des in 4667) [ClassicSimilarity], result of:
          0.022566179 = score(doc=4667,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 4667, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.075205624 = weight(_text_:spezielle in 4667) [ClassicSimilarity], result of:
          0.075205624 = score(doc=4667,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.51457745 = fieldWeight in 4667, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.020763772 = weight(_text_:der in 4667) [ClassicSimilarity], result of:
          0.020763772 = score(doc=4667,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 4667, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
        0.011801938 = weight(_text_:und in 4667) [ClassicSimilarity], result of:
          0.011801938 = score(doc=4667,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24241515 = fieldWeight in 4667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4667)
      0.20833333 = coord(5/24)
    
    Abstract
    Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im Rahmen der Evaluierungskampagne CLEF stattfindet. Der vorliegende Artikel beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse. Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen herausgearbeitet.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  13. Fender, A.-C.: Repositorien für Forschungsdaten am Beispiel des Faches Biologie : ein neues Aufgabenfeld für Bibliotheken? (2015) 0.03
    0.029590884 = product of:
      0.11836354 = sum of:
        0.0143061085 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=2461,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 2461, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2461)
        0.015793033 = weight(_text_:des in 2461) [ClassicSimilarity], result of:
          0.015793033 = score(doc=2461,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 2461, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2461)
        0.037749823 = weight(_text_:fragen in 2461) [ClassicSimilarity], result of:
          0.037749823 = score(doc=2461,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=2461)
        0.019223517 = weight(_text_:der in 2461) [ClassicSimilarity], result of:
          0.019223517 = score(doc=2461,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 2461, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2461)
        0.0143061085 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=2461,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 2461, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2461)
        0.016984947 = product of:
          0.033969894 = sum of:
            0.033969894 = weight(_text_:deutschland in 2461) [ClassicSimilarity], result of:
              0.033969894 = score(doc=2461,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.32018375 = fieldWeight in 2461, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2461)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Nachvollzieh- und Nutzbarkeit der rasant ansteigenden Menge digitaler Forschungsdaten wird seit einiger Zeit als eine zentrale strategische Herausforderung für die Leitungsebene von Universitäten gesehen. Bei der zentralen Koordination und der Umsetzung diesbezüglicher Konzepte in den Universitäten muss u. a. der bestehende Fächerkanon der jeweiligen Universität berücksichtigt werden. Vor diesem Hintergrund beschäftigt sich die vorliegende Arbeit speziell mit den Forschungsdaten-Repositorien des Fachbereichs Biologie. Folgende Fragen werden beleuchtet: (a.) Wie stark werden Forschungsdaten-Repositorien an den zehn renommiertesten biologischen Fakultäten in Deutschland genutzt? (b.) Welche Rolle übernehmen Bibliotheken an der Bereitstellung und im Service von biowissenschaftlichen Forschungsdaten-Repositorien? Die Daten für die vorliegende Arbeit wurden mittels einer Befragung der zehn renommiertesten Fakultäten Deutschlands und den zuständigen Bibliotheken per E-Mail erhoben.
  14. Sandner, M.: Neues aus der Kommission für Sacherschließung (2010) 0.03
    0.02957126 = product of:
      0.10138718 = sum of:
        0.019993395 = weight(_text_:und in 4314) [ClassicSimilarity], result of:
          0.019993395 = score(doc=4314,freq=90.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41066998 = fieldWeight in 4314, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
        0.012310859 = weight(_text_:des in 4314) [ClassicSimilarity], result of:
          0.012310859 = score(doc=4314,freq=14.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.20237891 = fieldWeight in 4314, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
        0.015729094 = weight(_text_:fragen in 4314) [ClassicSimilarity], result of:
          0.015729094 = score(doc=4314,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.14063662 = fieldWeight in 4314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
        0.020974576 = weight(_text_:der in 4314) [ClassicSimilarity], result of:
          0.020974576 = score(doc=4314,freq=96.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 4314, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
        0.0053088004 = product of:
          0.010617601 = sum of:
            0.010617601 = weight(_text_:29 in 4314) [ClassicSimilarity], result of:
              0.010617601 = score(doc=4314,freq=4.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13740966 = fieldWeight in 4314, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4314)
          0.5 = coord(1/2)
        0.019993395 = weight(_text_:und in 4314) [ClassicSimilarity], result of:
          0.019993395 = score(doc=4314,freq=90.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41066998 = fieldWeight in 4314, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4314)
        0.0070770606 = product of:
          0.014154121 = sum of:
            0.014154121 = weight(_text_:deutschland in 4314) [ClassicSimilarity], result of:
              0.014154121 = score(doc=4314,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13340989 = fieldWeight in 4314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4314)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Content
    Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
    Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
    Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
    Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
    Date
    9. 2.2011 18:59:29
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99
  15. Mensing, P.: Planung und Durchführung von Digitalisierungsprojekten am Beispiel nicht-textueller Materialien (2010) 0.03
    0.029503744 = product of:
      0.1011557 = sum of:
        0.003660373 = product of:
          0.010981118 = sum of:
            0.010981118 = weight(_text_:p in 3577) [ClassicSimilarity], result of:
              0.010981118 = score(doc=3577,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13903812 = fieldWeight in 3577, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3577)
          0.33333334 = coord(1/3)
        0.015612496 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.015612496 = score(doc=3577,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3206851 = fieldWeight in 3577, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.011283089 = weight(_text_:des in 3577) [ClassicSimilarity], result of:
          0.011283089 = score(doc=3577,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18548335 = fieldWeight in 3577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.02202073 = weight(_text_:fragen in 3577) [ClassicSimilarity], result of:
          0.02202073 = score(doc=3577,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.19689126 = fieldWeight in 3577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.018954644 = weight(_text_:der in 3577) [ClassicSimilarity], result of:
          0.018954644 = score(doc=3577,freq=40.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 3577, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.015612496 = weight(_text_:und in 3577) [ClassicSimilarity], result of:
          0.015612496 = score(doc=3577,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3206851 = fieldWeight in 3577, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3577)
        0.0140118655 = product of:
          0.028023731 = sum of:
            0.028023731 = weight(_text_:deutschland in 3577) [ClassicSimilarity], result of:
              0.028023731 = score(doc=3577,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.2641381 = fieldWeight in 3577, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3577)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Im Jahr 2007 hat die GWLB gemeinsam mit der HAAB, der Universitätsbibliothek Johann Christian Senckenberg und mehreren Stiftungen die Königliche Gartenbibliothek Herrenhausen erworben. Neben den textuellen Materialien enthält die Bibliothek auch viele nicht-textuelle Materialien wie Herbarien, Zeichnungen und auch Gouachen mit Abbildungen von Obstsorten aus der ehemaligen Obstbaumplantage. Diese Gouachen in Mappen liegend bei der GWLB aufbewahrt. Die einzelnen Blätter tragen keine Titel, sondern sind am unteren Rand mit Bleistift durchnummeriert. Ohne die beigefügte ebenfalls durchnummerierte Liste mit Sortennamen ist keine eindeutige Zuordnung und die Nutzung somit nur eingeschränkt möglich. Die Überlegung zu einer digitalen Präsentation liegt daher nahe, denn "der ungehinderte Zugang zu elektronischen wissenschaftlich relevanten Publikationen von jedem Ort aus und zu jeder Zeit spielt in der digitalen Informationsgesellschaft eine immer bedeutendere Rolle." Oder um es drastischer zu formulieren: "Was nicht im Web ist, ist nicht in der Welt". Bevor jedoch mit der Digitalisierung begonnen werden kann, müssen einige Fragen vorab geklärt werden. Im Folgenden werden Kriterien, die bei der Planung und Durchführung von Digitalisierungsprojekten zu beachten sind, behandelt.
    Content
    Darin auch: "2.7 Erschließung der Digitalisate Die formale Erschließung von gedruckten Beständen wird in Deutschland nach RAK-WB bzw. RAK-OB durchgeführt. Im Gegensatz zu Druckwerken, die meist alle wichtigen Informationen selbst enthalten (Impressum), sind in oder an Kunstwerken und Bildern meist keine Angaben wie Autor, Künstler oder Entstehungsjahr zu finden. Für die Formalerfassung von Nichtbuchmaterialien sind in Deutschland die "Regeln für die alphabetische Katalogisierung von Nichtbuchmaterialien" anzuwenden (RAK-NBM), eine Erweiterung der o.g. RAK. Zur Erschließung von Kunstwerken wurde seit den 70er Jahren des 20. Jhds. die Marburger-Index-Datenbank (MIDAS) entwickelt, die auf dem AKL, ICONCLASS und auch RAK aufbaut. MIDAS findet hauptsächlich in Museen Anwendung, konnte sich aber aufgrund der nicht verbindlichen Nutzung nicht durchsetzen. Ebenfalls aus dem Museumsbereich stammt CIDOC CRM, das seit 2006 ISO-zertifiziert ist (ISO 21127:2006) und der Datenfeldkatalog zur Grundinventarisation. Um die inhaltliche Erschließung von Bibliotheksbeständen einheitlich gestalten zu können, wurde die Schlagwortnormdatei entwickelt. Diese Datei ist universell ausgerichtet und ist daher für Spezialgebiete nicht tief genug ausgearbeitet. Im kunsthistorischen Bereich sind daher außerdem u.a. der AA und der AGM von Bedeutung. Als Klassifizierungssystem steht ICONCLASS zur Verfügung. Bei der inhaltlichen Erschließung ist darauf zu achten, dass irrelevante Informationen nicht zur unnötigen Vergrößerung des Kataloges führen. Um durchgängig eine größtmögliche Nutzerorientierung bieten zu können, sollten die gewünschten Prioritäten der Erschließung in einer Richtlinie festgehalten werden. Zur Interpretation von Bildern wurde von Panofsky ein 3-Stufen-Modell entwickelt, dass sich in prä- oder vor-ikonografische, ikonografische Beschreibung und ikonologische Interpretation unterteilen lässt. In der ersten Stufe werden nur die dargestellten Dinge oder Personen skizziert, ohne ihre Bedeutung zueinander zu interpretieren. Dies erfolgt erst in der zweiten Stufe. Hier wird das Ahema des Kunstwerkes allerdings ohne weitere Deutung benannt. In der dritten Stufe wird schließlich geklärt, warum dieses Werk so geschaffen wurde und nicht anders.
    2.8 Metadaten und Austauschformate . . .
  16. Geiß, D.: Aus der Praxis der Patentinformation : die Entwicklung der elektronischen Medien und Dienstleistungen bei den Patentbehörden und Internetprovidern (2010) 0.03
    0.029441975 = product of:
      0.14132148 = sum of:
        0.025233604 = weight(_text_:und in 3642) [ClassicSimilarity], result of:
          0.025233604 = score(doc=3642,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 3642, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3642)
        0.014889815 = weight(_text_:des in 3642) [ClassicSimilarity], result of:
          0.014889815 = score(doc=3642,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 3642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3642)
        0.050333098 = weight(_text_:fragen in 3642) [ClassicSimilarity], result of:
          0.050333098 = score(doc=3642,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.45003718 = fieldWeight in 3642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0625 = fieldNorm(doc=3642)
        0.025631357 = weight(_text_:der in 3642) [ClassicSimilarity], result of:
          0.025631357 = score(doc=3642,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5223744 = fieldWeight in 3642, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3642)
        0.025233604 = weight(_text_:und in 3642) [ClassicSimilarity], result of:
          0.025233604 = score(doc=3642,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.51830536 = fieldWeight in 3642, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3642)
      0.20833333 = coord(5/24)
    
    Abstract
    Die 37. Arbeitssitzung der AGM (Arbeitsgruppe Elektronische Medien in der Patentinformation) beim Technischen Informationszentrum des Deutschen Patent- und Markenamtes in Berlin am 12. November 2009 stand wie in jedem Jahr unter dem Motto "Fortschritte in der Patentinformation". Die Arbeitsgruppe besteht seit 37 Jahren und hat inzwischen rd. 80 Mitglieder aus Wirtschaft und Behörden, die bei Bedarf regelmäßig informiert werden. In diesem Jahr haben wieder 38 Fachleute den Weg nach Berlin gefunden, um sich mit Fragen und Problemen der Patentinformation auseinanderzusetzen.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.4, S.259-266
  17. Beuth, P.: ¬Der Internet-Erklärer : Blogger Markus Beckedahl will netzpolitische Themen in der Öffentlichkeit profilieren (2011) 0.03
    0.029424066 = product of:
      0.100882515 = sum of:
        0.0031374625 = product of:
          0.009412387 = sum of:
            0.009412387 = weight(_text_:p in 4565) [ClassicSimilarity], result of:
              0.009412387 = score(doc=4565,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11917553 = fieldWeight in 4565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4565)
          0.33333334 = coord(1/3)
        0.018584182 = weight(_text_:und in 4565) [ClassicSimilarity], result of:
          0.018584182 = score(doc=4565,freq=54.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38172436 = fieldWeight in 4565, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4565)
        0.011167361 = weight(_text_:des in 4565) [ClassicSimilarity], result of:
          0.011167361 = score(doc=4565,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 4565, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4565)
        0.018874912 = weight(_text_:fragen in 4565) [ClassicSimilarity], result of:
          0.018874912 = score(doc=4565,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.16876394 = fieldWeight in 4565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4565)
        0.018524244 = weight(_text_:der in 4565) [ClassicSimilarity], result of:
          0.018524244 = score(doc=4565,freq=52.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3775294 = fieldWeight in 4565, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4565)
        0.018584182 = weight(_text_:und in 4565) [ClassicSimilarity], result of:
          0.018584182 = score(doc=4565,freq=54.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38172436 = fieldWeight in 4565, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4565)
        0.012010171 = product of:
          0.024020342 = sum of:
            0.024020342 = weight(_text_:deutschland in 4565) [ClassicSimilarity], result of:
              0.024020342 = score(doc=4565,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.2264041 = fieldWeight in 4565, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4565)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Content
    "Schon vor gut zwei Jahren, in einem kleinen Konferenzraum seiner Berliner Beratungsagentur Newthinking Communications, hat Markus Beckedahl im Gespräch mit der Frankfurter Rundschau einen "Botschafter der Internetgemeinde" gefordert. Einen, der als Lobbyist für die digitale Gesellschaft auftritt, der Politikern als Ansprechpartner dient und nicht davon redet, die Freiheit im Internet einzuschränken, sondern davon, sie zu erweitern. Diesen Botschafter gibt es nun. Sein Name: Markus Beckedahl. Wenn heute die Blogger- und Internetkonferenz re:publica in Berlin beginnt, wird auch die Website des Vereins "Digitale Gesellschaft" ans Netz gehen, dessen Gründer und Vorsitzender der Mittdreißiger ist. Und beim Thema Netzpolitik wird endgültig kein Weg mehr an ihm vorbeigehen. Beckedahl ist Gründer von netzpolitik.org, dem meistverlinkten Blog in Deutschland, fast 50 000 Menschen folgen ihm bei Twitter, er ist Mitorganisator der re:publica, sitzt als Sachverständiger in der "Enquete-Kommission Internet und digitale Gesellschaft" des Bundestages sowie in diversen anderen Gremien und Initiativen. Was den neuen Verein profiliert? Mit ihm will Beckedahl die Netzpolitik aus dem Reich der Nerds in die breite Öffentlichkeit holen, sie mehrheitsfähig machen - und sie so vermitteln, dass jeder, der sich im Internet bewegt, sie versteht.
    Ansprechpartner der Tagesschauliga Er möchte die technischen und rechtlichen Themen herunterbrechen auf scheinbar einfache Fragen, die sich Verbraucher heute stellen: Warum kann ich dieses Youtube-Video in Deutschland nicht sehen? Warum kann ich meine E-Books nicht weiterverkaufen? Warum wollen Union und SPD wissen, mit wem ich wann wie lange und von wo aus telefoniere?" Der Wahl-Berliner wird zu Deutschlands oberstem Internet-Erklärer. Und auch wenn ihm einige das nicht gönnen mögen, ist er wohl der Richtige für den Job. Als Selbstdarsteller und Wichtigtuer wurde er beschimpft, als er die Pläne der "Digitalen Gesellschaft" verriet. Ein Leisetreter aber würde im Politikbetrieb schwer wahrgenommen. Spätestens, seit er auf netzpolitik.org mehrere Datenschutz-Verfehlungen etwa von SchülerVZ und der Buchhandelsplattform Libri.de veröffentlicht hat, gilt er auch in der Tagesschau-Liga als erster Ansprechpartner. Mittlerweile spricht er routiniert in jedes Mikrofon, erklärt auch denjenigen "das Internet", die sich damit nicht intensiv beschäftigen. Früher hingegen zog er über "beratungsresistente" Politiker her, über "Menschen, denen man überhaupt nicht abnimmt, dass sie halbwegs verstehen, worum es geht". Teilweise wurde er so ausfallend, dass er von eben diesen Politikern nicht ernst genommen wurde. Das ist heute anders. Bisher war er der Experte, den Politik, Wirtschaft und Medien fragten, wenn sie eine Meinung aus dem Kreis derer brauchten, die sich bestens mit Vorratsdatenspeicherung und Internetsperren auskannten und sowohl die technische Seite durchschauten, als auch die gesellschaftlichen Folgen absehen konnten. Jetzt will Beckedahl mit seinem Verein die Nutzerperspektive stärker in die politischen Prozesse einbringen.
    "Unsere Zielgruppe liegt außerhalb der netzaffinen Kreise", sagt er. Die "Digitale Gesellschaft" soll eine Plattform werden, mit der komplexe Themen wie Netzneutralität visuell und kommunikativ anders, anschaulicher dargestellt werden. So soll sie etwa Stellungnahmen aus Sicht der Nutzer verfassen und deren Interessen bei Anhörungen und in Gesprächen mit Politikern stärker in den Vordergrund rücken als bisher. "Es war immer nur von Nerds für Nerds", beschreibt Beckedahl den Ist-Zustand, "das wollen wir ändern." Vorbild des Grünen-Mitglieds: Die Umweltschutzorganisation Greenpeace, wenn auch in kleinerem Rahmen. 20 Mitglieder hat der Verein zunächst nur, aber "das Ziel ist, Spenden zu sammeln und dann Stellen zu schaffen." Beckedahl denkt an Programmierer und Designer, die neue Kampagnen aufsetzen können, sei es durch den Aufbau und Betrieb einer passenden Website oder die Entwicklung von Logos. Die Kontakte zu Politik, Wirtschaft und Medien bringen die Ur-Mitglieder mit.
    Teilen - nicht verkaufen Beckedahls Antrieb, dieses "Greenpeace des Internets" zu gründen, ist der Wunsch nach einem Internet, in dem möglichst viel kosten- und schrankenlos ist. Netzpolitik war bislang vor allem eine Politik der Einschränkungen, Beckedahl dagegen wünscht sich ein möglichst unreguliertes, auf Fairness beruhendes Netz. Software, Medienangebote, Musik - der Blogger will teilen, nicht kaufen und verkaufen. Wo das nicht funktioniert, weil am Ende doch jemand Geld verdienen möchte, fordert Beckedahl, einfach neue Geschäftsmodelle zu entwickeln. In seinem Fall funktioniert das: Sein Blog ist fast werbefrei, aber es hat ihn so bekannt gemacht, dass er als Berater, Redner und Dozent ein gefragter Mann ist. Dass dieses Modell nicht auf alle Blogger, Medien und Künstler übertragbar wäre, ist für Beckedahl kein Grund, ein weniger freies Internet so hinzunehmen."
    Footnote
    Vgl.: http://www.fr-online.de/digital/der-internet-erklaerer/-/1472406/8338542/-/index.html.
  18. Münch, V.: They have a dream (2019) 0.03
    0.029404242 = product of:
      0.11761697 = sum of:
        0.022619944 = weight(_text_:und in 5631) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5631,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5631, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5631)
        0.011167361 = weight(_text_:des in 5631) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5631,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5631)
        0.037749823 = weight(_text_:fragen in 5631) [ClassicSimilarity], result of:
          0.037749823 = score(doc=5631,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 5631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5631)
        0.014531613 = weight(_text_:der in 5631) [ClassicSimilarity], result of:
          0.014531613 = score(doc=5631,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 5631, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5631)
        0.022619944 = weight(_text_:und in 5631) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5631,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5631, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5631)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 5631) [ClassicSimilarity], result of:
              0.017856576 = score(doc=5631,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 5631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5631)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Wissenschaftlerinnen und Wissenschaftler propagieren die demokratische dezentrale Selbstorganisation der globalen Wissenschaftskommunikation als Blockchain. Bericht über die "1st international Conference on Blockchain for Science, Research and Knowledge Creation", Berlin, 5. und 6. November 2018. Sie wollen die Wissenschaftskommunikation und ihr Publikationswesen revolutionieren. Der Wissensaustausch soll ohne Barrieren fließen. Forschende sollen ihre Datensammlungen, Zwischenergebnisse und Fragen von Beginn des Forschungsprozesses an urheberrechtssicher direkt publizieren und diskutieren können; auch Fehlversuche und negative Ergebnisse. Sie haben ganz viel Enthusiasmus, frische Ideen und mit Blockchain ein neuartiges Datenverarbeitungskonzept, das mit dem bestehenden Internet als Transportfundament den weltweiten Datenverkehr unabhängig von zentralen Unternehmensplattformen möglich macht (zumindest technisch). Dieser kryptogesicherten Blockdatenverarbeitung mit verteilten Transaktionsregistern (sorry, es geht nicht kürzer) schreiben sie das Potential zu, in einem autonom geführten Netzwerk, in dem alle Teilnehmenden gleichberechtigt sind und miteinander agieren können, der Wissenschaft die Hoheit über ihren weltweiten Informationsaustausch geben zu können. Die Rede ist von der "Blockchain One Community", Wissenschaftlerinnen und Wissenschaftler aus verschiedenen Disziplinen und Ländern, die sich für eine "Blockchain for Science" engagieren. Die Kühnsten unter ihnen streben eine weltweite Wissenschaftskommunikation in demokratischer Selbstorganisation an. Blockchains nutzen kann, wer einen Internetzugang hat.
    Source
    B.I.T.online. 22(2019) H.1, S.25-39
  19. Capurro, R.; Treude, L.: Information, Zeichen, Kompetenz : Fragen an Rafael Capurro zu aktuellen und grundsätzlichen Fragen der Informationswissenschaft von Linda Treude (2011) 0.03
    0.02937504 = product of:
      0.11750016 = sum of:
        0.015816 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.015816 = score(doc=4306,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 4306, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4306)
        0.014889815 = weight(_text_:des in 4306) [ClassicSimilarity], result of:
          0.014889815 = score(doc=4306,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 4306, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4306)
        0.043589745 = weight(_text_:fragen in 4306) [ClassicSimilarity], result of:
          0.043589745 = score(doc=4306,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.38974366 = fieldWeight in 4306, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=4306)
        0.016065303 = weight(_text_:der in 4306) [ClassicSimilarity], result of:
          0.016065303 = score(doc=4306,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.32741547 = fieldWeight in 4306, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4306)
        0.015816 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.015816 = score(doc=4306,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3248651 = fieldWeight in 4306, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4306)
        0.011323297 = product of:
          0.022646595 = sum of:
            0.022646595 = weight(_text_:deutschland in 4306) [ClassicSimilarity], result of:
              0.022646595 = score(doc=4306,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.21345583 = fieldWeight in 4306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4306)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Information ist zu einem omnipräsenten Begriff geworden. Wir begegnen ihm in der Wissenschaft ebenso wie in unserem Alltag. Man spricht von der Informationsgesellschaft, von Informationsprozessen, von Informatik und wahlweise von Informationsflut oder -mangel. Information wird als Ding, als Eigenschaft, als Relation oder Ware betrachtet. Aber was meinen wir (jeweils), wenn wir von Information sprechen? Der Philosoph und Informationswissenschaftler Rafael Capurro beschäftigte sich bereits in seiner 1978 erschienenen Dissertation mit dem Titel "Information. Ein Beitrag zur etymologischen und ideengeschichtlichen Begründung des Informationsbegriffs" mit den verschiedenen Dimensionen des Informationsbegriffs. Die Motivation zu einer solchen Arbeit gab Capurro vor allem die fehlende philosophische Auseinandersetzung mit dem Informationsbegriff in Deutschland. Der konkrete Anlass jedoch war die Lektüre der Schriften Carl Friedrich von Weizsäckers, bei der er auf Sätze stieß, die ihm die Bedeutung des Problems klar vor Augen stellten. Weizsäcker formulierte es wie folgt: "Man beginnt sich [...] heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man aber damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." Dieser ideengeschichtliche Rückgriff gab Capurros Werk seine besondere Ausrichtung. Rafael Capurro setzt sich seitdem besonders mit Problemen der Informationsethik auseinander. Angesichts der technischen Entwicklung und ihrer Folgen ist heute zu fragen, wie Begriffsklärung, Anwendungsmöglichkeit und gesellschaftliche Bedeutung in Bezug gesetzt werden können. Im Umgang, vor allem mit digitalen Medien ist scheinbar eine neue Kompetenz oder sogar eine neue Kulturtechnik erforderlich. Als Reaktion darauf entstehen im bibliothekarischen Bereich immer neue Projekte, die den Begriff der "Informationskompetenz" im Titel tragen. Derartige Vermittlungskonzepte, welche eine steigende Konjunktur erfahren, sind mit der angesprochenen terminologischen Unklarheit konfrontiert und zeigen so eine Lücke zwischen Theorie und Praxis im informationswissenschaftlichen Diskurs auf. Welche Forderungen an die Informationswissenschaft ergeben sich daraus? Die Diskussion dieser Problematik und deren Lösungsansätze, wie sie beispielsweise die Semiotik bieten könnte, bilden den Hintergrund für das folgende Interview.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.37-42
  20. Oehlschläger, S.: Treffpunkt Standardisierung 2012 (2012) 0.03
    0.028901493 = product of:
      0.13872717 = sum of:
        0.020441556 = weight(_text_:und in 316) [ClassicSimilarity], result of:
          0.020441556 = score(doc=316,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 316, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=316)
        0.018425206 = weight(_text_:des in 316) [ClassicSimilarity], result of:
          0.018425206 = score(doc=316,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 316, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=316)
        0.018954644 = weight(_text_:der in 316) [ClassicSimilarity], result of:
          0.018954644 = score(doc=316,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 316, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=316)
        0.020441556 = weight(_text_:und in 316) [ClassicSimilarity], result of:
          0.020441556 = score(doc=316,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 316, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=316)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 316) [ClassicSimilarity], result of:
            0.03963154 = score(doc=316,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 316, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=316)
          0.020832673 = weight(_text_:22 in 316) [ClassicSimilarity], result of:
            0.020832673 = score(doc=316,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 316, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=316)
      0.20833333 = coord(5/24)
    
    Content
    Hamburg, das Tor zur Welt, war in diesem Jahr Gastgeber für den 101. Deutschen Bibliothekartag. "Bibliotheken - Tore zur Welt des Wissens" lautete dementsprechend auch das Motto der Veranstaltung, die von 4730 Teilnehmerinnen und Teilnehmern vornehmlich aus Deutschland, aber auch aus vielen europäischen Nachbarstaaten sowie den USA besucht wurde. Rund 300 Vortragsveranstaltungen innerhalb von 10 Themenkreisen sowie etliche Arbeits- und Gremiensitzungen wurden vom 22. bis 25. Mai durchgeführt. Im Themenkreis "Neue Netze und Portale" war auch der "Treffpunkt Standardisierung" angesiedelt, den der Standardisierungsausschuss seit dem Jahr 2001, d.h. nunmehr zum elften Mal, angeboten hat und der unverändert sehr gut besucht war. Berndt Dugall, der Vorsitzende des Standardisierungsausschusses, führte durch den Vormittag und rief einleitend den Zuhörerinnen und Zuhörern die Anfänge dieser Veranstaltungsreihe beim Bibliothekartag in Bielefeld ins Gedächtnis.

Authors

Languages

  • e 1320
  • d 1302
  • a 1
  • f 1
  • i 1
  • no 1
  • sp 1
  • More… Less…

Types

  • el 349
  • b 4
  • More… Less…

Themes

Classifications