Search (1246 results, page 1 of 63)

  • × year_i:[2020 TO 2030}
  1. Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022) 0.13
    0.13288993 = product of:
      0.23255737 = sum of:
        0.13429649 = weight(_text_:methoden in 1828) [ClassicSimilarity], result of:
          0.13429649 = score(doc=1828,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.56680036 = fieldWeight in 1828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.04254853 = weight(_text_:und in 1828) [ClassicSimilarity], result of:
          0.04254853 = score(doc=1828,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 1828, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.014630223 = weight(_text_:in in 1828) [ClassicSimilarity], result of:
          0.014630223 = score(doc=1828,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23523843 = fieldWeight in 1828, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
        0.041082133 = weight(_text_:den in 1828) [ClassicSimilarity], result of:
          0.041082133 = score(doc=1828,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31349042 = fieldWeight in 1828, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1828)
      0.5714286 = coord(4/7)
    
    Abstract
    In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
    Footnote
    Beitrag in enem Themenheft 'Critical Library Perspectives'.
  2. Bredemeier, W.: Podiumsdiskussion "Zukunft wissenschaftlicher Bibliotheken?!" : Mit provokanten Thesen an neues Format angepasst (2020) 0.12
    0.12040975 = product of:
      0.16857365 = sum of:
        0.040697984 = weight(_text_:methoden in 5739) [ClassicSimilarity], result of:
          0.040697984 = score(doc=5739,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.17176645 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.036470167 = weight(_text_:und in 5739) [ClassicSimilarity], result of:
          0.036470167 = score(doc=5739,freq=48.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 5739, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.05720592 = weight(_text_:techniken in 5739) [ClassicSimilarity], result of:
          0.05720592 = score(doc=5739,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.20364435 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.009300054 = weight(_text_:in in 5739) [ClassicSimilarity], result of:
          0.009300054 = score(doc=5739,freq=22.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14953499 = fieldWeight in 5739, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.024899531 = weight(_text_:den in 5739) [ClassicSimilarity], result of:
          0.024899531 = score(doc=5739,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 5739, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
      0.71428573 = coord(5/7)
    
    Abstract
    Auf der Veranstaltung "Zukunft wissenschaftlicher Bibliotheken?!" in Trägerschaft von ZB MED und Open Password wurde die auf Präsenzveranstaltungen übliche Podiumsdiskussion durch eine virtuelle Lösung ersetzt. Diese wurde an das neue Format angepasst, weil man einander in einer virtuellen Veranstaltung "noch weniger ins Wort fallen kann" als auf einer Präsenztagung (Moderatorin Miriam Albers): Es wurden vorab teils provokante Thesen formuliert, zu denen die Referenten maximal zwei Minuten lang Stellung nehmen sollten. Von den vier Thesen sollten sie zu mindestens dreien einen Kommentar abgeben. Im Folgenden einige Kernthesen aus den Kommentaren, wie sie der Rezensent verstanden hat.
    Content
    These 1: Wissenschaftliche Bibliotheken zwischen Formalerschließung und Forschungsdatenmanagement: Was ist Kunst und was kann weg? Maschine, übernehmen Sie! Wir Humans wenden uns interessanteren Themen zu Bleiben muss, was tatsächlich nachgefragt und nach der Einschätzung und den Prognosen der Experten auf der Basis von Kriterien längerfristig aufgehoben werden sollte (selbst wenn momentan keine Nachfrage danach besteht). Es wird keine einfachen Antworten geben, aber es ist ein Stück bibliothekarische Kompetenz, diese Antworten zu finden (Nelle). Bleiben muss, was nachgefragt wird und der Community dient und eine starke Relevanz besitzt. Gute Kunst ist, was von Herzen kommt und authentisch ist. Also sollte man nicht alles mitmachen, wenn wieder wie beispielsweise vor zwanzig Jahren mit der "Informationskompetenz" eine neue Sau durchs Dorf getrieben wird (Christensen).
    These 2: Data Librarian, Systembibliothekar und Co.: Welche Qualifikationen brauchen wir und wie lassen sich diese rekrutieren? Über den Tellerrand schauen, in drei Welten beheimatet sein, sich selbst die gerade erforderlichen Fähigkeiten beibringen Bibliothekare sind häufig mit Managementaufgaben befasst und müssen sich immer wieder an Prozesse, Projekte, Zieldefinitionen, überhaupt an dem großen Ganzen orientieren. Aber sie verfügen lediglich über eine fachliche Ausbildung. Sollte nicht eine Managementqualifikation hinzukommen? (Albers). Dem könne er nur zustimmen, sagte Konrad Förstner. Von ähnlich zentraler Bedeutung sei zudem die Kommunikationskompetenz und die Fähigkeit, sich selbst Wissen anzueignen. Die Techniken verändern sich mittlerweile derart rapide, dass der Bibliothekar sich in einem sich bewegenden Feld der Anforderungen befindet und sich bemühen muss, die neu erforderlichen Qualifizierungen fortlaufend zu akquirieren. Das ist eine sehr schwierige Aufgabe (beispielsweise auch die, eine solche Fähigkeit vermitteln), so dass man die Leute langsam in diese Qualifikation hineinwachsen lassen sollte. Andererseits ist diese Kompetenz nicht nur in Bibliotheken, vielmehr überall gefragt und gibt es dazu keine Alternative (Förstner).
    These 3: Citizen Science: Die breite Öffentlichkeit als wichtige Zielgruppe für Wissenschaftliche Bibliotheken? Bibliotheken sollten Bürger befähigen, wissenschaftlichen Prozess zu verstehen Bei Citizen Science sind zwei Aspekte zu unterscheiden: die Bürger an der Forschung zu beteiligen (beispielsweise mit dem Sammeln von Daten), auf dass sie selbst einen Mehrwert für die Entwicklung neuer bibliothekarischer Methoden zu schaffen - die Bürger an die Wissenschaft heranzuführen und Verständnis für diese zu vermitteln. Dabei sollte die Bibliothek als Ansprechpartner für belastbares Wissen, für Evidenzbasierung und gute Empirie fungieren. Sie hat die Fragen zu beantworten: Welches Wissen ist vertrauenswürdig und unter welchen Vorussetzungen kann ich ein bestimmtes Wissen nutzen? Dies ist eine Kernaufgabe nicht jeder einzelnen wissenschaftlichen Bibliothek, aber der wissenschaftlichen Bibliotheken insgesamt (Nelle).
    These 4: Wissenschaftliche Bibliotheken und Privatwirtschaft: Notwendig, sinnvoll oder verwerflich? Keiner der Referenten sah die Zusammenarbeit zwischen Wissenschaft und Wirtschaft als verwerflich an, aber in jedem Statement wurden mögliche Gefahren und Problematiken einer solchen Zusammenarbeit betont. Wissenschaft und Gesellschaft sollten sich in einen interaktiven Austausch zum wechselseitigen Vorteil begeben und die Wirtschaft ist ein wesentlicher Teil der Gesellschaft. Allerdings kommt es auf die Setzung geeigneter Rahmenbedingungen an. Die Wissenschaft darf sich nicht in einseitige Abhängigkeiten begeben. Zudem hat die Bibliothek ihr Wissen nach vielen Seiten zur Verfügung zu stellen (Nelle). Anne Christensen, die sich erst vor fünf Monaten aus einer wissenschaftlichen Bibliothek in die Privatwirtschaft begeben hatte, machte bereits die Erfahrung, dass sie nicht mehr uneingeschränkt Teil der Bibliotheksgemeinschaft ist, schon weil sie das Privileg verloren hat, keine Umsätze machen zu müssen. Große private Anbieter wie EBSCO haben wichtigen Projekten einen großen Schub gegeben, weniger wegen ihres Know hows, sondern weil sie anders als die beteiligten wissenschaftlichen Bibliotheken über ausreichende Entwicklungsressourcen geboten. Aber die Bibliotheken müssen in jedem Fall ihre Unabhängigkeit bewahren und die Hoheit über die eigenen Daten und Dienste behalten (Christensen).
  3. Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020) 0.11
    0.11207835 = product of:
      0.1961371 = sum of:
        0.08139597 = weight(_text_:methoden in 551) [ClassicSimilarity], result of:
          0.08139597 = score(doc=551,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 551, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.04466665 = weight(_text_:und in 551) [ClassicSimilarity], result of:
          0.04466665 = score(doc=551,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4407773 = fieldWeight in 551, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.007931113 = weight(_text_:in in 551) [ClassicSimilarity], result of:
          0.007931113 = score(doc=551,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 551, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.062143363 = product of:
          0.124286726 = sum of:
            0.124286726 = weight(_text_:naturwissenschaften in 551) [ClassicSimilarity], result of:
              0.124286726 = score(doc=551,freq=2.0), product of:
                0.29278275 = queryWeight, product of:
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.045721713 = queryNorm
                0.42450154 = fieldWeight in 551, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.046875 = fieldNorm(doc=551)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
  4. Peters, I.: Folksonomies & Social Tagging (2023) 0.10
    0.10267718 = product of:
      0.17968506 = sum of:
        0.094961956 = weight(_text_:methoden in 796) [ClassicSimilarity], result of:
          0.094961956 = score(doc=796,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.04913081 = weight(_text_:und in 796) [ClassicSimilarity], result of:
          0.04913081 = score(doc=796,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4848303 = fieldWeight in 796, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.0065428335 = weight(_text_:in in 796) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=796,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.029049452 = weight(_text_:den in 796) [ClassicSimilarity], result of:
          0.029049452 = score(doc=796,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Erforschung und der Einsatz von Folksonomies und Social Tagging als nutzerzentrierte Formen der Inhaltserschließung und Wissensrepräsentation haben in den 10 Jahren ab ca. 2005 ihren Höhenpunkt erfahren. Motiviert wurde dies durch die Entwicklung und Verbreitung des Social Web und der wachsenden Nutzung von Social-Media-Plattformen (s. Kapitel E 8 Social Media und Social Web). Beides führte zu einem rasanten Anstieg der im oder über das World Wide Web auffindbaren Menge an potenzieller Information und generierte eine große Nachfrage nach skalierbaren Methoden der Inhaltserschließung.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  5. Illing, S.: Automatisiertes klinisches Codieren (2021) 0.10
    0.10130263 = product of:
      0.17727959 = sum of:
        0.10852795 = weight(_text_:methoden in 419) [ClassicSimilarity], result of:
          0.10852795 = score(doc=419,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.028074749 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.028074749 = score(doc=419,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.0074775247 = weight(_text_:in in 419) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=419,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.033199377 = weight(_text_:den in 419) [ClassicSimilarity], result of:
          0.033199377 = score(doc=419,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
      0.5714286 = coord(4/7)
    
    Abstract
    Die in diesem Artikel vorgestellte Bachelorarbeit behandelt die Ergebnisse einer Shared Task im Bereich eHealth. Es wird untersucht, ob die Klassifikationsgenauigkeit ausgewählter klinischer Codiersysteme durch den Einsatz von Ensemble-Methoden verbessert werden kann. Entscheidend dafür sind die Werte der Evaluationsmaße Mean Average Precision und F1-Maß.
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.5/6, S.285-290
  6. Tausch, A.: Zitierungen sind nicht alles : Classroom Citation, Libcitation und die Zukunft bibliometrischer und szientometrischer Leistungsvergleiche (2022) 0.10
    0.10125827 = product of:
      0.17720197 = sum of:
        0.067829974 = weight(_text_:methoden in 827) [ClassicSimilarity], result of:
          0.067829974 = score(doc=827,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=827)
        0.039235655 = weight(_text_:und in 827) [ClassicSimilarity], result of:
          0.039235655 = score(doc=827,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3871834 = fieldWeight in 827, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=827)
        0.011447575 = weight(_text_:in in 827) [ClassicSimilarity], result of:
          0.011447575 = score(doc=827,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18406484 = fieldWeight in 827, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=827)
        0.058688756 = weight(_text_:den in 827) [ClassicSimilarity], result of:
          0.058688756 = score(doc=827,freq=16.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.44784343 = fieldWeight in 827, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=827)
      0.5714286 = coord(4/7)
    
    Abstract
    Der Beitrag soll zeigen, welche fortgeschrittenen bibliometrischen und szientometrischen Daten für ein bewährtes Sample von 104 österreichischen Politikwissenschaftler*innen und 51 transnationalen Verlagsunternehmen enge statistische Beziehungen zwischen Indikatoren der Präsenz von Wissenschaftler*innen und transnationalen Verlagsunternehmen in den akademischen Lehrveranstaltungen der Welt (Classroom Citation, gemessen mit Open Syllabus) und anderen, herkömmlicheren bibliometrischen und szientometrischen Indikatoren (Libcitation gemessen mit dem OCLC Worldcat, sowie der H-Index der Zitierung in den vom System Scopus erfassten Fachzeitschriften der Welt bzw. dem Book Citation Index) bestehen. Die statistischen Berechnungen zeigen, basierend auf den Faktorenanalysen, die engen statistischen Beziehungen zwischen diesen Dimensionen. Diese Ergebnisse sind insbesondere in den Tabellen 5 und 9 dieser Arbeit (Komponentenkorrelationen) ableitbar.
    Die multivariaten Rankings, die auf den mit den Eigenwerten gewichteten Factorscores beruhen, zeigen in der Tabelle 6, welche 15 österreichischen Politikwissenschaftler*innen sich auf den Weltmärkten der Wissenschaften am besten bewährten. Außerdem zeigen diese Methoden in Tabelle 10 auch, dass die im Beitrag analysierten führenden akademischen Verlage der Welt insbesondere für Wissenschaftler*innen der jüngeren Generation gute Weggefährten sein werden, um in Zeiten institutioneller und finanzieller Unsicherheit die Ergebnisse der Wissenschaft verlässlich um den Globus zu verbreiten und die akademischen Karrieren zu befördern.
  7. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.10
    0.09975227 = product of:
      0.17456646 = sum of:
        0.08139597 = weight(_text_:methoden in 346) [ClassicSimilarity], result of:
          0.08139597 = score(doc=346,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.042112123 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.042112123 = score(doc=346,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 346, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.007931113 = weight(_text_:in in 346) [ClassicSimilarity], result of:
          0.007931113 = score(doc=346,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 346, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.043127254 = weight(_text_:den in 346) [ClassicSimilarity], result of:
          0.043127254 = score(doc=346,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.32909638 = fieldWeight in 346, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
      0.5714286 = coord(4/7)
    
    Abstract
    In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  8. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.10
    0.09600292 = product of:
      0.16800511 = sum of:
        0.094961956 = weight(_text_:methoden in 790) [ClassicSimilarity], result of:
          0.094961956 = score(doc=790,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.034740727 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.034740727 = score(doc=790,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.009252965 = weight(_text_:in in 790) [ClassicSimilarity], result of:
          0.009252965 = score(doc=790,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14877784 = fieldWeight in 790, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
        0.029049452 = weight(_text_:den in 790) [ClassicSimilarity], result of:
          0.029049452 = score(doc=790,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 790, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.5714286 = coord(4/7)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.10
    0.09520088 = product of:
      0.16660154 = sum of:
        0.08139597 = weight(_text_:methoden in 801) [ClassicSimilarity], result of:
          0.08139597 = score(doc=801,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.036470167 = weight(_text_:und in 801) [ClassicSimilarity], result of:
          0.036470167 = score(doc=801,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 801, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.0056081433 = weight(_text_:in in 801) [ClassicSimilarity], result of:
          0.0056081433 = score(doc=801,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.09017298 = fieldWeight in 801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.043127254 = weight(_text_:den in 801) [ClassicSimilarity], result of:
          0.043127254 = score(doc=801,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.32909638 = fieldWeight in 801, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
      0.5714286 = coord(4/7)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  10. Rösch, H.: Informationsethik (2023) 0.09
    0.09409972 = product of:
      0.1646745 = sum of:
        0.067829974 = weight(_text_:methoden in 821) [ClassicSimilarity], result of:
          0.067829974 = score(doc=821,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
        0.042980507 = weight(_text_:und in 821) [ClassicSimilarity], result of:
          0.042980507 = score(doc=821,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 821, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
        0.012364795 = weight(_text_:in in 821) [ClassicSimilarity], result of:
          0.012364795 = score(doc=821,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.19881277 = fieldWeight in 821, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
        0.041499224 = weight(_text_:den in 821) [ClassicSimilarity], result of:
          0.041499224 = score(doc=821,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 821, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
      0.5714286 = coord(4/7)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  11. Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023) 0.09
    0.09023666 = product of:
      0.2105522 = sum of:
        0.16447894 = weight(_text_:methoden in 777) [ClassicSimilarity], result of:
          0.16447894 = score(doc=777,freq=6.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.69418585 = fieldWeight in 777, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
        0.034740727 = weight(_text_:und in 777) [ClassicSimilarity], result of:
          0.034740727 = score(doc=777,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34282678 = fieldWeight in 777, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
        0.011332521 = weight(_text_:in in 777) [ClassicSimilarity], result of:
          0.011332521 = score(doc=777,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1822149 = fieldWeight in 777, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
      0.42857143 = coord(3/7)
    
    Abstract
    Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Qualität in der Inhaltserschließung (2021) 0.09
    0.09021063 = product of:
      0.1578686 = sum of:
        0.07674085 = weight(_text_:methoden in 753) [ClassicSimilarity], result of:
          0.07674085 = score(doc=753,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.32388592 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.051576607 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.051576607 = score(doc=753,freq=54.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.012951453 = weight(_text_:in in 753) [ClassicSimilarity], result of:
          0.012951453 = score(doc=753,freq=24.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2082456 = fieldWeight in 753, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.016599689 = weight(_text_:den in 753) [ClassicSimilarity], result of:
          0.016599689 = score(doc=753,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.12666926 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.5714286 = coord(4/7)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  13. Fielitz, M.; Marcks, H.: Digitaler Faschismus : die sozialen Medien afs Motor des Rechtsextremismus (2020) 0.09
    0.088590115 = product of:
      0.1550327 = sum of:
        0.04254853 = weight(_text_:und in 344) [ClassicSimilarity], result of:
          0.04254853 = score(doc=344,freq=48.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 344, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.06674024 = weight(_text_:techniken in 344) [ClassicSimilarity], result of:
          0.06674024 = score(doc=344,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.23758507 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.0073151113 = weight(_text_:in in 344) [ClassicSimilarity], result of:
          0.0073151113 = score(doc=344,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.11761922 = fieldWeight in 344, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.038428817 = weight(_text_:den in 344) [ClassicSimilarity], result of:
          0.038428817 = score(doc=344,freq=14.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.29324344 = fieldWeight in 344, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
      0.5714286 = coord(4/7)
    
    Abstract
    Digitale Revolution: Chance oder Gefahr für die Demokratie? Einst galten das Internet und die sozialen Medien als Chance auf unbegrenzten Zugang zu Wissen - und damit als Basis für eine neue Hochphase der demokratischen Debattenkultur. Doch stattdessen sind wir heute mit Hass im Netz, Fake-News und Verschwörungstheorien konfrontiert. Rechte Parteien und Organisationen wie die AfD, Pegida und die Identitäre Bewegung können fast ungehindert ihre Ideologien verbreiten. Doch dabei handelt es sich nicht um eine reine »Online-Radikalisierung«. Das beweist die Welle rechtsmotivierter Gewalt wie die Anschläge von Halle und Hanau und eine wachsende Akzeptanz rechter Positionen in der Bevölkerung. Maik Fielitz und Holger Marcks analysieren diese Entwicklung und gehen den Ursachen auf den Grund: Die Rolle der sozialen Medien beim Erstarken des Ultranationalismus und rechts motivierter Straftaten Die Manipulationstechniken der Rechtsextremen: Verwirrung stiften, Ängste schüren und Mehrheitsverhältnisse verzerren Rechtsextreme Kommunikation im Internet: Verschwörungstheorien, Bedrohungsmythen, Lügen und Hassbotschaften Die sozialen Medien als digitaler Brandbeschleuniger: Fakten, Hintergründe und Analysen Selbstregulation oder politische Eingriffe? Auswege aus der digitalen Hasskultur Die autoritäre Revolte stellt eine große Herausforderung für Demokratien und offene Gesellschaften dar. Wie können wir rechtsextremen Tendenzen begegnen? Politik aber auch Internetkonzerne sind aufgerufen, zu handeln. Wie lässt sich der »digitale Faschismus« bändigen, ohne unser Recht auf freie Meinungsäußerung einzuschränken? Diese Fragen diskutieren Maik Fielitz und Holger Marcks intensiv. Sie untersuchen die manipulativen Strategien und psychologischen Tricks der rechtsextremen Akteure und zeigen mögliche Auswege aus der Misere. Ihr Sachbuch ist ein wichtiger Beitrag zur politischen Debatte!
    Die sozialen Medien haben sich zu einem Raum des Hasses und der Unwahrheit entwickelt. Ohne diese digitalen Brandbeschleuniger sind die rechtsextremen Wahlerfolge ebenso wenig zu verstehen wie die jüngste Welle rechter Gewalt. Maik Fielitz und Holger Marcks gehen dieser Entwicklung und ihren Ursachen auf den Grund. Sie zeigen, mit welchen manipulativen Techniken rechtsextreme Akteure in den sozialen Medien versuchen, Ängste zu verstärken, Verwirrung zu stiften und Mehrheitsverhältnisse zu verzerren. Dass ihr Wirken dabei eine solche Dynamik entfalten kann, hat wiederum mit der Funktionsweise der sozialen Medien selbst zu tun. Denn sie begünstigen die Entstehung und Verbreitung von Bedrohungsmythen, die der führungslosen Masse der Wutbürger eine Richtung geben. Wie aber ließe sich dieser "digitale Faschismus" bändigen, ohne die Werte der offenen Gesellschaft in Mitleidenschaft zu ziehen? "Das Ergebnis ihrer Recherche ist so besorgniserregend, dass die Forscher die Rechten als "die neuen Gatekeeper" bezeichnen. So kursierten etwa in den Wochen nach der Kölner Silvesternacht fünf Mal mehr muslimfeindliche Posts als üblich. Gravierender noch: Rechte Sprache und Sprachbilder seien inzwischen Bestandteil des öffentlichen Diskurses. Plötzlich sei etwa viel von "Nafris" die Rede gewesen - eine Polizeibezeichnung für Nordafrikaner" (deutschlandfunkkultur.de)
    Footnote
    Rez. u.d.T.: Witte-Petit, K.: Radikale Rattenfänger : zwei Forscher beschreiben den 'digitalen Faschismus' in: Rheinpfalz vom 19.08.2021 [Fielitz-Marcks_Rez_RP_20210819.pdf]: "Es gibt mittlerweile viele Bücher darüber, wie soziale Medien die Verbreitung extremen Gedankenguts erleichtern. Das vom Rechtsextremismusforscher Maik Fielitz und dem Radikalisierungsexperten Holger. Marcks vorgelegte Buch "Digitaler Faschismus" gehört zu den wirklich lesenswerten. Leider macht es aber auch wenig Hoffnung."
  14. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.08
    0.08254984 = product of:
      0.19261628 = sum of:
        0.030086353 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.030086353 = score(doc=1047,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.13348047 = weight(_text_:techniken in 1047) [ClassicSimilarity], result of:
          0.13348047 = score(doc=1047,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47517014 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.029049452 = weight(_text_:den in 1047) [ClassicSimilarity], result of:
          0.029049452 = score(doc=1047,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.42857143 = coord(3/7)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  15. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.08
    0.078953914 = product of:
      0.13816935 = sum of:
        0.067829974 = weight(_text_:methoden in 128) [ClassicSimilarity], result of:
          0.067829974 = score(doc=128,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.042980507 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.042980507 = score(doc=128,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 128, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.0066092606 = weight(_text_:in in 128) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=128,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.020749612 = weight(_text_:den in 128) [ClassicSimilarity], result of:
          0.020749612 = score(doc=128,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.5714286 = coord(4/7)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  16. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.08
    0.078236036 = product of:
      0.13691306 = sum of:
        0.067829974 = weight(_text_:methoden in 539) [ClassicSimilarity], result of:
          0.067829974 = score(doc=539,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.030391807 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.030391807 = score(doc=539,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.29991096 = fieldWeight in 539, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.009346906 = weight(_text_:in in 539) [ClassicSimilarity], result of:
          0.009346906 = score(doc=539,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 539, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.029344378 = weight(_text_:den in 539) [ClassicSimilarity], result of:
          0.029344378 = score(doc=539,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 539, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
      0.5714286 = coord(4/7)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
    Footnote
    Vgl. dazu die Anmerkungen von Markus Latour in Inetbib vom 31.03.2022.
  17. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.08
    0.07801429 = product of:
      0.136525 = sum of:
        0.042112123 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.042112123 = score(doc=266,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.014837754 = weight(_text_:in in 266) [ClassicSimilarity], result of:
          0.014837754 = score(doc=266,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23857531 = fieldWeight in 266, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.060991146 = weight(_text_:den in 266) [ClassicSimilarity], result of:
          0.060991146 = score(doc=266,freq=12.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.46541256 = fieldWeight in 266, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.018583983 = product of:
          0.037167966 = sum of:
            0.037167966 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.037167966 = score(doc=266,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Content
    Teil 1 in: Open Password. 2021, Nr.920 vom 10.05.2021.
    Date
    22. 5.2021 12:43:05
  18. Lopez, P.: Artificial Intelligence und die normative Kraft des Faktischen (2021) 0.08
    0.07775615 = product of:
      0.18143103 = sum of:
        0.10852795 = weight(_text_:methoden in 1025) [ClassicSimilarity], result of:
          0.10852795 = score(doc=1025,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.45804384 = fieldWeight in 1025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
        0.03970369 = weight(_text_:und in 1025) [ClassicSimilarity], result of:
          0.03970369 = score(doc=1025,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39180204 = fieldWeight in 1025, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
        0.033199377 = weight(_text_:den in 1025) [ClassicSimilarity], result of:
          0.033199377 = score(doc=1025,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 1025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1025)
      0.42857143 = coord(3/7)
    
    Abstract
    Den Gesundheitszustand von Patienten zu prognostizieren, um medizinische Präventionsmaßnahmen möglichst sinnvoll zu verteilen, ist schwieriger, als man denkt. Dabei scheint die Problemstellung denkbar simpel: Es sollen diejenigen Patientinnen zusätzliche Präventionsmaßnahmen erhalten, deren Gesundheitszustand sich zu verschlechtern droht. Doch der Gesundheitszustand ist, wie die meisten menschlichen Angelegenheiten, zu komplex, um ihn einheitlich messen und quantifizieren zu können. Das gilt auch dann, wenn alle Patientendaten vollständig zur Verfügung stehen und mit Big-Data-Methoden verarbeitet werden können.
    Source
    Merkur. Heft 863, April 20213, S.42-52 [https://www.merkur-zeitschrift.de/artikel/artificial-intelligence-und-die-normative-kraft-des-faktischen-a-mr-75-4-42]
  19. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.08
    0.07557322 = product of:
      0.13225313 = sum of:
        0.047480978 = weight(_text_:methoden in 115) [ClassicSimilarity], result of:
          0.047480978 = score(doc=115,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.20039418 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.039800506 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.039800506 = score(doc=115,freq=42.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0065428335 = weight(_text_:in in 115) [ClassicSimilarity], result of:
          0.0065428335 = score(doc=115,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10520181 = fieldWeight in 115, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.038428817 = weight(_text_:den in 115) [ClassicSimilarity], result of:
          0.038428817 = score(doc=115,freq=14.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.29324344 = fieldWeight in 115, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.5714286 = coord(4/7)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
  20. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.07
    0.074612334 = product of:
      0.13057157 = sum of:
        0.04254853 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.04254853 = score(doc=252,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.016026607 = weight(_text_:in in 252) [ClassicSimilarity], result of:
          0.016026607 = score(doc=252,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2576908 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.05031513 = weight(_text_:den in 252) [ClassicSimilarity], result of:
          0.05031513 = score(doc=252,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.3839458 = fieldWeight in 252, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.021681314 = product of:
          0.04336263 = sum of:
            0.04336263 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.04336263 = score(doc=252,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Content
    Teil 1 in: Open Password. 2021, Nr.920 vom 10.05.2021.
    Date
    22. 5.2021 12:43:05

Languages

  • e 795
  • d 440
  • pt 5
  • m 2
  • sp 1
  • More… Less…

Types

  • a 1095
  • el 283
  • m 64
  • p 14
  • s 10
  • x 4
  • A 1
  • EL 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications