Search (114 results, page 1 of 6)

  • × language_ss:"d"
  • × type_ss:"a"
  • × year_i:[2020 TO 2030}
  1. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.02
    0.023931347 = product of:
      0.11167961 = sum of:
        0.020922182 = weight(_text_:web in 47) [ClassicSimilarity], result of:
          0.020922182 = score(doc=47,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.043931052 = weight(_text_:elektronische in 47) [ClassicSimilarity], result of:
          0.043931052 = score(doc=47,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.3134899 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.046826374 = weight(_text_:bibliothek in 47) [ClassicSimilarity], result of:
          0.046826374 = score(doc=47,freq=4.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.38489348 = fieldWeight in 47, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Digitalisierung des kulturellen Erbes in Bibliotheken, Archiven und Museen hat in den letzten Jahrzehnten eine rasant zunehmende Verfügbarkeit kultureller Inhalte im Web bewirkt - so hat die Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB-PK) rund 170.000 Werke (Bücher, Zeitschriften, Zeitungen, Karten, Notenschriften etc.) aus ihrem reichhaltigen Bestand digitalisiert und über ein eigenes Online-Portal bereitgestellt (Stand Mai 2020). Noch deutlicher wird die immense Menge der durch die Digitalisierung entstandenen digitalen Kulturobjekte beim Blick auf die von Aggregatoren gebildeten Sammlungen - so beinhaltet die Deutsche Digitale Bibliothek etwa 33 Millionen Nachweise für Digitalisate aus Kultureinrichtungen (Stand Mai 2020), die europäische digitale Bibliothek Europeana weist knapp 60 Millionen digitalisierte Kulturobjekte nach (Stand Mai 2020).
    Theme
    Elektronische Dokumente
  2. Peters, I.: Folksonomies & Social Tagging (2023) 0.02
    0.020214265 = product of:
      0.09433324 = sum of:
        0.044992477 = weight(_text_:wide in 796) [ClassicSimilarity], result of:
          0.044992477 = score(doc=796,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.342674 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.042278 = weight(_text_:web in 796) [ClassicSimilarity], result of:
          0.042278 = score(doc=796,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.43716836 = fieldWeight in 796, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.0070627616 = weight(_text_:information in 796) [ClassicSimilarity], result of:
          0.0070627616 = score(doc=796,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13576832 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Erforschung und der Einsatz von Folksonomies und Social Tagging als nutzerzentrierte Formen der Inhaltserschließung und Wissensrepräsentation haben in den 10 Jahren ab ca. 2005 ihren Höhenpunkt erfahren. Motiviert wurde dies durch die Entwicklung und Verbreitung des Social Web und der wachsenden Nutzung von Social-Media-Plattformen (s. Kapitel E 8 Social Media und Social Web). Beides führte zu einem rasanten Anstieg der im oder über das World Wide Web auffindbaren Menge an potenzieller Information und generierte eine große Nachfrage nach skalierbaren Methoden der Inhaltserschließung.
  3. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.009736202 = product of:
      0.06815341 = sum of:
        0.03856498 = weight(_text_:wide in 793) [ClassicSimilarity], result of:
          0.03856498 = score(doc=793,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.29372054 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.029588435 = weight(_text_:web in 793) [ClassicSimilarity], result of:
          0.029588435 = score(doc=793,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
      0.14285715 = coord(2/14)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
  4. Strecker, D.: Dataset Retrieval : Informationsverhalten von Datensuchenden und das Ökosystem von Data-Retrieval-Systemen (2022) 0.01
    0.008808877 = product of:
      0.061662138 = sum of:
        0.008071727 = weight(_text_:information in 4021) [ClassicSimilarity], result of:
          0.008071727 = score(doc=4021,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1551638 = fieldWeight in 4021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
        0.05359041 = weight(_text_:retrieval in 4021) [ClassicSimilarity], result of:
          0.05359041 = score(doc=4021,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.59785134 = fieldWeight in 4021, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
      0.14285715 = coord(2/14)
    
    Abstract
    Verschiedene Stakeholder fordern eine bessere Verfügbarkeit von Forschungsdaten. Der Erfolg dieser Initiativen hängt wesentlich von einer guten Auffindbarkeit der publizierten Datensätze ab, weshalb Dataset Retrieval an Bedeutung gewinnt. Dataset Retrieval ist eine Sonderform von Information Retrieval, die sich mit dem Auffinden von Datensätzen befasst. Dieser Beitrag fasst aktuelle Forschungsergebnisse über das Informationsverhalten von Datensuchenden zusammen. Anschließend werden beispielhaft zwei Suchdienste verschiedener Ausrichtung vorgestellt und verglichen. Um darzulegen, wie diese Dienste ineinandergreifen, werden inhaltliche Überschneidungen von Datenbeständen genutzt, um den Metadatenaustausch zu analysieren.
  5. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.01
    0.007860217 = product of:
      0.055021517 = sum of:
        0.01482871 = weight(_text_:information in 808) [ClassicSimilarity], result of:
          0.01482871 = score(doc=808,freq=12.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2850541 = fieldWeight in 808, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
        0.04019281 = weight(_text_:retrieval in 808) [ClassicSimilarity], result of:
          0.04019281 = score(doc=808,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.44838852 = fieldWeight in 808, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
  6. Lackner, K.; Schilhan, L.: ¬Der Einzug der EDV im österreichischen Bibliothekswesen am Beispiel der Universitätsbibliothek Graz (2022) 0.01
    0.0072980025 = product of:
      0.051086016 = sum of:
        0.033111244 = weight(_text_:bibliothek in 476) [ClassicSimilarity], result of:
          0.033111244 = score(doc=476,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.01797477 = weight(_text_:retrieval in 476) [ClassicSimilarity], result of:
          0.01797477 = score(doc=476,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
      0.14285715 = coord(2/14)
    
    Abstract
    Durch den Einsatz von EDV-Systemen kam es ab den 1970er Jahren zu einem radikalen Wandel in der Benutzung und Verwaltung von Universitätsbibliotheken. Die Universitätsbibliothek Graz war die erste Bibliothek in Österreich, die ein elektronisches Bibliothekssystem entwickelte und einsetzte, womit sie zu den Vorreitern in Europa zählte. Dieser Artikel liefert einen historischen Überblick über die Anfänge, die Entwicklung und Verbreitung der elektronischen Bibliothekssysteme im Allgemeinen sowie an der Universitätsbibliothek Graz im Speziellen. Vorgestellt werden die im Lauf der Jahrzehnte an der UB Graz eingesetzten Bibliothekssysteme GRIBS, EMILE, FBInfo, BIBOS, ALEPH und ALMA sowie die Entwicklung von den ersten Online- über die CD-ROM-Datenbanken bis hin zum modernen Datenbank-Retrieval.
  7. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.01
    0.006964882 = product of:
      0.04875417 = sum of:
        0.00856136 = weight(_text_:information in 801) [ClassicSimilarity], result of:
          0.00856136 = score(doc=801,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 801, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.04019281 = weight(_text_:retrieval in 801) [ClassicSimilarity], result of:
          0.04019281 = score(doc=801,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.44838852 = fieldWeight in 801, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
      0.14285715 = coord(2/14)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
  8. Elsweiler, D.; Kruschwitz, U.: Interaktives Information Retrieval (2023) 0.01
    0.006472671 = product of:
      0.045308694 = sum of:
        0.011415146 = weight(_text_:information in 797) [ClassicSimilarity], result of:
          0.011415146 = score(doc=797,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 797, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.033893548 = weight(_text_:retrieval in 797) [ClassicSimilarity], result of:
          0.033893548 = score(doc=797,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.37811437 = fieldWeight in 797, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
      0.14285715 = coord(2/14)
    
    Abstract
    Interaktives Information Retrieval (IIR) zielt darauf ab, die komplexen Interaktionen zwischen Nutzer*innen und Systemen im IR zu verstehen. Es gibt umfangreiche Literatur zu Themen wie der formalen Modellierung des Suchverhaltens, der Simulation der Interaktion, den interaktiven Funktionen zur Unterstützung des Suchprozesses und der Evaluierung interaktiver Suchsysteme. Dabei ist die interaktive Unterstützung nicht allein auf die Suche beschränkt, sondern hat ebenso die Hilfe bei Navigation und Exploration zum Ziel.
  9. Graf, K.: DNB, die "schlechteste Nationalbibliothek der Galaxis" (Graf), laesst einmal mehr URN-Links ins Leere laufen (2023) 0.01
    0.006275865 = product of:
      0.087862104 = sum of:
        0.087862104 = weight(_text_:elektronische in 978) [ClassicSimilarity], result of:
          0.087862104 = score(doc=978,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.6269798 = fieldWeight in 978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.09375 = fieldNorm(doc=978)
      0.071428575 = coord(1/14)
    
    Theme
    Elektronische Dokumente
  10. Gierke, B.: ¬Der Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : eine Kurzvorstellung (2020) 0.01
    0.0055950056 = product of:
      0.03916504 = sum of:
        0.033111244 = weight(_text_:bibliothek in 5709) [ClassicSimilarity], result of:
          0.033111244 = score(doc=5709,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.0060537956 = weight(_text_:information in 5709) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=5709,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
      0.14285715 = coord(2/14)
    
    Abstract
    Im Rahmen des DFG Förderprogramms Fachinformationsdienste (FID) nahm der FID Buch- Bibliotheks- und Informationswissenschaft, eine Kooperation der Herzog August Bibliothek Wolfenbüttel und der Universitätsbibliothek Leipzig, im Oktober 2017 seine Arbeit auf. Ziel ist, die Spitzenversorgung mit Literatur für Wissenschaftlerinnen und Wissenschaftler dieser und angrenzenden Disziplinen sicher zu stellen. Dazu hat der FID BBI ein Discovery Tool entwickelt. Grundlage dafür ist die Open-Source-Software VuFind. Eine Herausforderung für den FID BBI ist die Auswertung unterschiedlichster Datenquellen, weil die Themengebiete des FID BBI sehr weit gefächert sind. Das Portal bietet einen schnellen Rechercheeinstieg. Es ist aber auch möglich komplexere Suchanfragen zu stellen. Der Kontakt zu der wissenschaftlichen Gemeinschaft, die der FID BBI bedient, hat große Priorität, um die Ziele, die von der Deutschen Forschungsgemeinschaft gesetzt wurden, zu erfüllen. Ein erster Kontakt kann über das Nachweisportal hergestellt werden: https://katalog.fid-bbi.de.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.1, S.43-48
  11. Kusber, E.: Ständige Aktualisierung von ASB und KAB : Zehn Jahre Systematik-Kooperati-on / Bibliotheken können jederzeit anfragen (2020) 0.00
    0.004730178 = product of:
      0.06622249 = sum of:
        0.06622249 = weight(_text_:bibliothek in 1779) [ClassicSimilarity], result of:
          0.06622249 = score(doc=1779,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.54432154 = fieldWeight in 1779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.09375 = fieldNorm(doc=1779)
      0.071428575 = coord(1/14)
    
    Series
    Öffentliche Bibliothek
  12. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.00
    0.0047255447 = product of:
      0.033078812 = sum of:
        0.0071344664 = weight(_text_:information in 799) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=799,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.025944345 = weight(_text_:retrieval in 799) [ClassicSimilarity], result of:
          0.025944345 = score(doc=799,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.28943354 = fieldWeight in 799, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
      0.14285715 = coord(2/14)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
  13. Fuhr, N.: Modelle im Information Retrieval (2023) 0.00
    0.0047255447 = product of:
      0.033078812 = sum of:
        0.0071344664 = weight(_text_:information in 800) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=800,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 800, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.025944345 = weight(_text_:retrieval in 800) [ClassicSimilarity], result of:
          0.025944345 = score(doc=800,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.28943354 = fieldWeight in 800, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
      0.14285715 = coord(2/14)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
  14. Womser-Hacker, C.: Cross-Language Information Retrieval (CLIR) (2023) 0.00
    0.004501639 = product of:
      0.03151147 = sum of:
        0.013536699 = weight(_text_:information in 806) [ClassicSimilarity], result of:
          0.013536699 = score(doc=806,freq=10.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2602176 = fieldWeight in 806, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=806)
        0.01797477 = weight(_text_:retrieval in 806) [ClassicSimilarity], result of:
          0.01797477 = score(doc=806,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=806)
      0.14285715 = coord(2/14)
    
    Abstract
    Durch die ständig wachsende internationale Vernetzung ist auch bei der Suche nach Information seit langem eine intensive Entwicklung in Richtung Mehrsprachigkeit feststellbar. Diese wird meist von den Systemen und Technologien her betrachtet. Im informationellen Kontext ist auch die Seite der Nutzer*innen hinzuzuziehen, die etwa in Hinblick auf ihre Mehrsprachigkeit sehr unterschiedlich einzuschätzen sind. Kompetenzen in verschiedenen Sprachen sind eher die Regel als reiner Monolingualismus, der heute nur sehr selten vorzufinden ist. Die Nutzer*innen unterscheiden sich in den Niveaus ihrer Sprachkompetenz, die von rudimentärem Sprachverständnis bis hin zu muttersprachlichen Fähigkeiten reichen. Es wird zunehmend zur Gewohnheit und auch zur Notwendigkeit, auf multilinguale Kollektionen zuzugreifen und nach Information nicht nur in der Muttersprache zu suchen. Oft hängt dies auch davon ab, ob in beruflichen oder privaten Umgebungen mit entsprechenden Zielsetzungen gesucht wird. Information bleibt Information, auch wenn verschiedene Sprachen aufeinandertreffen, was z. B. für verschiedene mediale Formen von Informationsobjekten wie z. B. Bilder gilt.
  15. Kleineberg, M.: Klassifikation (2023) 0.00
    0.0044226884 = product of:
      0.030958816 = sum of:
        0.009988253 = weight(_text_:information in 783) [ClassicSimilarity], result of:
          0.009988253 = score(doc=783,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1920054 = fieldWeight in 783, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=783)
        0.020970564 = weight(_text_:retrieval in 783) [ClassicSimilarity], result of:
          0.020970564 = score(doc=783,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.23394634 = fieldWeight in 783, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=783)
      0.14285715 = coord(2/14)
    
    Abstract
    Dieser Beitrag nimmt eine informationswissenschaftliche Perspektive ein und betrachtet das Phänomen der Klassifikation als Methode und System der Wissensorganisation. Ein Klassifikationssystem wird dabei als Wissensorganisationssystem (engl. knowledge organization system) verstanden, das vor allem im Bereich der Information und Dokumentation zum Einsatz kommt, um dokumentarische Bezugseinheiten (DBE) mit einem kontrollierten Vokabular zu beschreiben (s. Kapitel B 1 Einführung Wissensorganisation). Als eine solche Dokumentationssprache zeichnet sich ein Klassifikationssystem typischerweise durch seine systematische Ordnung aus und dient der inhaltlichen Groberschließung, eignet sich aber auch als Aufstellungssystematik und Hilfsmittel bei der Recherche wie etwa als systematischer Sucheinstieg oder thematischer Filter für Treffermengen. Beim Information Retrieval liegt die Stärke der klassifikatorischen Erschließung durch das hohe Abstraktionsniveau in Überblicks- und Vollständigkeitsrecherchen.
  16. Eibl, M.; Haupt, J.; Kahl, S.; Taubert, S.; Wilhelm-Stein, T.: Audio- und Musik-Retrieval (2023) 0.00
    0.004236694 = product of:
      0.05931371 = sum of:
        0.05931371 = weight(_text_:retrieval in 802) [ClassicSimilarity], result of:
          0.05931371 = score(doc=802,freq=16.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.6617001 = fieldWeight in 802, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=802)
      0.071428575 = coord(1/14)
    
    Abstract
    Das Gebiet Audio-Retrieval kann grob in drei Bereiche unterteilt werden: Musik-Retrieval, Retrieval gesprochener Sprache und Retrieval akustischer Ereignisse. Alle drei Bereiche gehen i. d. R. vom Audiosignal als Quelle aus, welches über eine Signalanalyse, meist eine Spektralanalyse über eine Fouriertransformation, weiterverarbeitet und in eine für das Retrieval geeignete Beschreibung gebracht wird. Dabei gibt es auch alternative Ansätze, wie z. B. die Nutzung der hier nicht diskutierten MIDI-Codierung im Musik-Retrieval, die ohne ein akustisches Signal auskommt und bereits eine für das Retrieval geeignete Form der Kodierung als Grundlage hat.
  17. Womser-Hacker, C.: Informationswissenschaftliche Perspektiven des Information Retrieval (2023) 0.00
    0.0040454194 = product of:
      0.028317936 = sum of:
        0.0071344664 = weight(_text_:information in 798) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=798,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 798, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=798)
        0.021183468 = weight(_text_:retrieval in 798) [ClassicSimilarity], result of:
          0.021183468 = score(doc=798,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.23632148 = fieldWeight in 798, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=798)
      0.14285715 = coord(2/14)
    
    Abstract
    Mit Information Retrieval (IR) sind in Forschung und Entwicklung in unterschiedlicher Breite und aus verschiedenen Perspektiven mehrere Disziplinen befasst. Die verschiedenen Ausrichtungen sind wichtig, da nur in ihrer Verknüpfung eine Gesamtschau des IR vermittelt werden kann. Die Informatik verfolgt einen stärker systemgetriebenen, technologischen Ansatz des IR und stellt Algorithmen und Implementationen in den Vordergrund, während für die Informationswissenschaft die Benutzer*innen in ihren vielschichtigen Kontexten den Schwerpunkt bilden. Deren Eigenschaften (fachlicher Hintergrund, Domänenzugehörigkeit, Expertise etc.) und Zielsetzungen, die durch das IR verfolgt werden, spielen im Interaktionsprozess zwischen Mensch und System eine zentrale Rolle. Auch wird intensiv der Frage nachgegangen, wie sich Benutzer*innen in diesen Prozessen verhalten und aus welchen Gründen sie verschiedene Systeme in Anspruch nehmen. Da ein Großteil des heutigen Wissens nach wie vor in Texten repräsentiert ist, ist eine weitere Disziplin - nämlich die Computerlinguistik/Sprachtechnologie für das IR von Bedeutung. Zusätzlich kommen aber auch visuelle und auditive Wissensobjekte immer stärker zum Tragen und werden aufgrund ihrer anwachsenden Menge immer wichtiger für das IR. Ein neues Fachgebiet ist die Data Science, die auf altbekannten Konzepten aus Statistik und Wahrscheinlichkeitsrechnung aufsetzt, auf den Daten operiert und auch traditionelles IR-Wissen für die Zusammenführung von strukturierten Fakten und unstrukturierten Texten nutzt. Hier soll die informationswissenschaftliche Perspektive im Vordergrund stehen.
  18. Tuider, B.: Plansprachen und Sprachplanung : zum Stand interlinguistischer Forschungen (2021) 0.00
    0.003941815 = product of:
      0.055185407 = sum of:
        0.055185407 = weight(_text_:bibliothek in 317) [ClassicSimilarity], result of:
          0.055185407 = score(doc=317,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.4536013 = fieldWeight in 317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.078125 = fieldNorm(doc=317)
      0.071428575 = coord(1/14)
    
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.2, S.333-339
  19. Wartena, C.; Golub, K.: Evaluierung von Verschlagwortung im Kontext des Information Retrievals (2021) 0.00
    0.0037468998 = product of:
      0.026228298 = sum of:
        0.0050448296 = weight(_text_:information in 376) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=376,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
        0.021183468 = weight(_text_:retrieval in 376) [ClassicSimilarity], result of:
          0.021183468 = score(doc=376,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.23632148 = fieldWeight in 376, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=376)
      0.14285715 = coord(2/14)
    
    Abstract
    Dieser Beitrag möchte einen Überblick über die in der Literatur diskutierten Möglichkeiten, Herausforderungen und Grenzen geben, Retrieval als eine extrinsische Evaluierungsmethode für die Ergebnisse verbaler Sacherschließung zu nutzen. Die inhaltliche Erschließung im Allgemeinen und die Verschlagwortung im Besonderen können intrinsisch oder extrinsisch evaluiert werden. Die intrinsische Evaluierung bezieht sich auf Eigenschaften der Erschließung, von denen vermutet wird, dass sie geeignete Indikatoren für die Qualität der Erschließung sind, wie formale Einheitlichkeit (im Hinblick auf die Anzahl zugewiesener Deskriptoren pro Dokument, auf die Granularität usw.), Konsistenz oder Übereinstimmung der Ergebnisse verschiedener Erschließer:innen. Bei einer extrinsischen Evaluierung geht es darum, die Qualität der gewählten Deskriptoren daran zu messen, wie gut sie sich tatsächlich bei der Suche bewähren. Obwohl die extrinsische Evaluierung direktere Auskunft darüber gibt, ob die Erschließung ihren Zweck erfüllt, und daher den Vorzug verdienen sollte, ist sie kompliziert und oft problematisch. In einem Retrievalsystem greifen verschiedene Algorithmen und Datenquellen in vielschichtiger Weise ineinander und interagieren bei der Evaluierung darüber hinaus noch mit Nutzer:innen und Rechercheaufgaben. Die Evaluierung einer Komponente im System kann nicht einfach dadurch vorgenommen werden, dass man sie austauscht und mit einer anderen Komponente vergleicht, da die gleiche Ressource oder der gleiche Algorithmus sich in unterschiedlichen Umgebungen unterschiedlich verhalten kann. Wir werden relevante Evaluierungsansätze vorstellen und diskutieren, und zum Abschluss einige Empfehlungen für die Evaluierung von Verschlagwortung im Kontext von Retrieval geben.
  20. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.00
    0.0036609212 = product of:
      0.051252894 = sum of:
        0.051252894 = weight(_text_:elektronische in 5954) [ClassicSimilarity], result of:
          0.051252894 = score(doc=5954,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.36573824 = fieldWeight in 5954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
      0.071428575 = coord(1/14)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).

Authors