Search (145 results, page 1 of 8)

  • × year_i:[2020 TO 2030}
  • × language_ss:"d"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.27
    0.26722354 = product of:
      0.5344471 = sum of:
        0.039221346 = product of:
          0.11766403 = sum of:
            0.11766403 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.11766403 = score(doc=1000,freq=2.0), product of:
                0.25123185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029633347 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.017435152 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
          0.017435152 = score(doc=1000,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.18028519 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11766403 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11766403 = score(doc=1000,freq=2.0), product of:
            0.25123185 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029633347 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11766403 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11766403 = score(doc=1000,freq=2.0), product of:
            0.25123185 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029633347 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0071344664 = weight(_text_:information in 1000) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=1000,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11766403 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11766403 = score(doc=1000,freq=2.0), product of:
            0.25123185 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029633347 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11766403 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11766403 = score(doc=1000,freq=2.0), product of:
            0.25123185 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029633347 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(7/14)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
    Imprint
    Wien / Library and Information Studies : Universität
  2. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.02
    0.023931347 = product of:
      0.11167961 = sum of:
        0.020922182 = weight(_text_:web in 47) [ClassicSimilarity], result of:
          0.020922182 = score(doc=47,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.21634221 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.043931052 = weight(_text_:elektronische in 47) [ClassicSimilarity], result of:
          0.043931052 = score(doc=47,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.3134899 = fieldWeight in 47, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
        0.046826374 = weight(_text_:bibliothek in 47) [ClassicSimilarity], result of:
          0.046826374 = score(doc=47,freq=4.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.38489348 = fieldWeight in 47, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Digitalisierung des kulturellen Erbes in Bibliotheken, Archiven und Museen hat in den letzten Jahrzehnten eine rasant zunehmende Verfügbarkeit kultureller Inhalte im Web bewirkt - so hat die Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB-PK) rund 170.000 Werke (Bücher, Zeitschriften, Zeitungen, Karten, Notenschriften etc.) aus ihrem reichhaltigen Bestand digitalisiert und über ein eigenes Online-Portal bereitgestellt (Stand Mai 2020). Noch deutlicher wird die immense Menge der durch die Digitalisierung entstandenen digitalen Kulturobjekte beim Blick auf die von Aggregatoren gebildeten Sammlungen - so beinhaltet die Deutsche Digitale Bibliothek etwa 33 Millionen Nachweise für Digitalisate aus Kultureinrichtungen (Stand Mai 2020), die europäische digitale Bibliothek Europeana weist knapp 60 Millionen digitalisierte Kulturobjekte nach (Stand Mai 2020).
    Theme
    Elektronische Dokumente
  3. Peters, I.: Folksonomies & Social Tagging (2023) 0.02
    0.020214265 = product of:
      0.09433324 = sum of:
        0.044992477 = weight(_text_:wide in 796) [ClassicSimilarity], result of:
          0.044992477 = score(doc=796,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.342674 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.042278 = weight(_text_:web in 796) [ClassicSimilarity], result of:
          0.042278 = score(doc=796,freq=6.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.43716836 = fieldWeight in 796, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
        0.0070627616 = weight(_text_:information in 796) [ClassicSimilarity], result of:
          0.0070627616 = score(doc=796,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13576832 = fieldWeight in 796, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=796)
      0.21428572 = coord(3/14)
    
    Abstract
    Die Erforschung und der Einsatz von Folksonomies und Social Tagging als nutzerzentrierte Formen der Inhaltserschließung und Wissensrepräsentation haben in den 10 Jahren ab ca. 2005 ihren Höhenpunkt erfahren. Motiviert wurde dies durch die Entwicklung und Verbreitung des Social Web und der wachsenden Nutzung von Social-Media-Plattformen (s. Kapitel E 8 Social Media und Social Web). Beides führte zu einem rasanten Anstieg der im oder über das World Wide Web auffindbaren Menge an potenzieller Information und generierte eine große Nachfrage nach skalierbaren Methoden der Inhaltserschließung.
  4. Grundlagen der Informationswissenschaft (2023) 0.02
    0.01833143 = product of:
      0.064160004 = sum of:
        0.010461091 = weight(_text_:web in 1043) [ClassicSimilarity], result of:
          0.010461091 = score(doc=1043,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.108171105 = fieldWeight in 1043, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.016555622 = weight(_text_:bibliothek in 1043) [ClassicSimilarity], result of:
          0.016555622 = score(doc=1043,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.13608038 = fieldWeight in 1043, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.011723124 = weight(_text_:information in 1043) [ClassicSimilarity], result of:
          0.011723124 = score(doc=1043,freq=30.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.22535504 = fieldWeight in 1043, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.025420163 = weight(_text_:retrieval in 1043) [ClassicSimilarity], result of:
          0.025420163 = score(doc=1043,freq=16.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.2835858 = fieldWeight in 1043, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
      0.2857143 = coord(4/14)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
    Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
  5. Sühl-Strohmenger, W.: Wissenschaftliche Bibliotheken als Orte des Schreibens : Infrastrukturen, Ressourcen, Services (2021) 0.01
    0.010683407 = product of:
      0.07478385 = sum of:
        0.06622249 = weight(_text_:bibliothek in 457) [ClassicSimilarity], result of:
          0.06622249 = score(doc=457,freq=8.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.54432154 = fieldWeight in 457, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=457)
        0.00856136 = weight(_text_:information in 457) [ClassicSimilarity], result of:
          0.00856136 = score(doc=457,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 457, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=457)
      0.14285715 = coord(2/14)
    
    Abstract
    In dem Lehrbuch wird der enge Zusammenhang zwischen dem wissenschaftlichen Schreiben in der Hochschulbibliothek sowie der Schlüsselqualifikation Informationskompetenz systematisch sowie konkret anhand von verschiedenen Schreibszenarien aufgezeigt. Für die erfolgreiche Anfertigung einer studentischen Hausarbeit, einer Abschlussarbeit (Bachelor, Master) oder einer Dissertation bedarf es eines fundierten Wissens beim Umgang mit wissenschaftsrelevanter Information und des Beherrschens dazu notwendiger Fähigkeiten und Fertigkeiten bei der Recherche, der Auswahl, der Bewertung und der Verarbeitung von Information. Das Konzept des forschenden Lernens, wie es an den Hochschulen verfolgt wird, spielt dabei ebenso eine Rolle wie die Schwellenkonzepte der Informationskompetenz, die den dynamischen Zusammenhang der Informationspraxis mit dem Forschungsprozess in den Disziplinen betonen. Die Ressourcen und Dienstleistungen, die die Hochschulbibliothek zur Förderung und Unterstützung des wissenschaftlichen Schreibens zu Verfügung stellen, werden einbezogen.
    RSWK
    Infrastruktur / Schreiben / Wissenschaftliche Bibliothek
    Bibliothek
    Subject
    Infrastruktur / Schreiben / Wissenschaftliche Bibliothek
    Bibliothek
  6. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.01
    0.010015186 = product of:
      0.0701063 = sum of:
        0.045449268 = weight(_text_:wide in 4016) [ClassicSimilarity], result of:
          0.045449268 = score(doc=4016,freq=4.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.34615302 = fieldWeight in 4016, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
        0.02465703 = weight(_text_:web in 4016) [ClassicSimilarity], result of:
          0.02465703 = score(doc=4016,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.25496176 = fieldWeight in 4016, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
      0.14285715 = coord(2/14)
    
    RSWK
    World Wide Web Recherche
    Subject
    World Wide Web Recherche
  7. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.009736202 = product of:
      0.06815341 = sum of:
        0.03856498 = weight(_text_:wide in 793) [ClassicSimilarity], result of:
          0.03856498 = score(doc=793,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.29372054 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.029588435 = weight(_text_:web in 793) [ClassicSimilarity], result of:
          0.029588435 = score(doc=793,freq=4.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.3059541 = fieldWeight in 793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
      0.14285715 = coord(2/14)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
  8. Strecker, D.: Dataset Retrieval : Informationsverhalten von Datensuchenden und das Ökosystem von Data-Retrieval-Systemen (2022) 0.01
    0.008808877 = product of:
      0.061662138 = sum of:
        0.008071727 = weight(_text_:information in 4021) [ClassicSimilarity], result of:
          0.008071727 = score(doc=4021,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1551638 = fieldWeight in 4021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
        0.05359041 = weight(_text_:retrieval in 4021) [ClassicSimilarity], result of:
          0.05359041 = score(doc=4021,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.59785134 = fieldWeight in 4021, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
      0.14285715 = coord(2/14)
    
    Abstract
    Verschiedene Stakeholder fordern eine bessere Verfügbarkeit von Forschungsdaten. Der Erfolg dieser Initiativen hängt wesentlich von einer guten Auffindbarkeit der publizierten Datensätze ab, weshalb Dataset Retrieval an Bedeutung gewinnt. Dataset Retrieval ist eine Sonderform von Information Retrieval, die sich mit dem Auffinden von Datensätzen befasst. Dieser Beitrag fasst aktuelle Forschungsergebnisse über das Informationsverhalten von Datensuchenden zusammen. Anschließend werden beispielhaft zwei Suchdienste verschiedener Ausrichtung vorgestellt und verglichen. Um darzulegen, wie diese Dienste ineinandergreifen, werden inhaltliche Überschneidungen von Datenbeständen genutzt, um den Metadatenaustausch zu analysieren.
  9. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.01
    0.007860217 = product of:
      0.055021517 = sum of:
        0.01482871 = weight(_text_:information in 808) [ClassicSimilarity], result of:
          0.01482871 = score(doc=808,freq=12.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2850541 = fieldWeight in 808, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
        0.04019281 = weight(_text_:retrieval in 808) [ClassicSimilarity], result of:
          0.04019281 = score(doc=808,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.44838852 = fieldWeight in 808, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
  10. Qualität in der Inhaltserschließung (2021) 0.01
    0.007843386 = product of:
      0.036602467 = sum of:
        0.013948122 = weight(_text_:web in 753) [ClassicSimilarity], result of:
          0.013948122 = score(doc=753,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.14422815 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.005707573 = weight(_text_:information in 753) [ClassicSimilarity], result of:
          0.005707573 = score(doc=753,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.10971737 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.016946774 = weight(_text_:retrieval in 753) [ClassicSimilarity], result of:
          0.016946774 = score(doc=753,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.18905719 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.21428572 = coord(3/14)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Theme
    Verbale Doksprachen im Online-Retrieval
    Klassifikationssysteme im Online-Retrieval
  11. Lackner, K.; Schilhan, L.: ¬Der Einzug der EDV im österreichischen Bibliothekswesen am Beispiel der Universitätsbibliothek Graz (2022) 0.01
    0.0072980025 = product of:
      0.051086016 = sum of:
        0.033111244 = weight(_text_:bibliothek in 476) [ClassicSimilarity], result of:
          0.033111244 = score(doc=476,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.01797477 = weight(_text_:retrieval in 476) [ClassicSimilarity], result of:
          0.01797477 = score(doc=476,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
      0.14285715 = coord(2/14)
    
    Abstract
    Durch den Einsatz von EDV-Systemen kam es ab den 1970er Jahren zu einem radikalen Wandel in der Benutzung und Verwaltung von Universitätsbibliotheken. Die Universitätsbibliothek Graz war die erste Bibliothek in Österreich, die ein elektronisches Bibliothekssystem entwickelte und einsetzte, womit sie zu den Vorreitern in Europa zählte. Dieser Artikel liefert einen historischen Überblick über die Anfänge, die Entwicklung und Verbreitung der elektronischen Bibliothekssysteme im Allgemeinen sowie an der Universitätsbibliothek Graz im Speziellen. Vorgestellt werden die im Lauf der Jahrzehnte an der UB Graz eingesetzten Bibliothekssysteme GRIBS, EMILE, FBInfo, BIBOS, ALEPH und ALMA sowie die Entwicklung von den ersten Online- über die CD-ROM-Datenbanken bis hin zum modernen Datenbank-Retrieval.
  12. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.01
    0.006964882 = product of:
      0.04875417 = sum of:
        0.00856136 = weight(_text_:information in 801) [ClassicSimilarity], result of:
          0.00856136 = score(doc=801,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.16457605 = fieldWeight in 801, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.04019281 = weight(_text_:retrieval in 801) [ClassicSimilarity], result of:
          0.04019281 = score(doc=801,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.44838852 = fieldWeight in 801, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
      0.14285715 = coord(2/14)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
  13. Elsweiler, D.; Kruschwitz, U.: Interaktives Information Retrieval (2023) 0.01
    0.006472671 = product of:
      0.045308694 = sum of:
        0.011415146 = weight(_text_:information in 797) [ClassicSimilarity], result of:
          0.011415146 = score(doc=797,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 797, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.033893548 = weight(_text_:retrieval in 797) [ClassicSimilarity], result of:
          0.033893548 = score(doc=797,freq=4.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.37811437 = fieldWeight in 797, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
      0.14285715 = coord(2/14)
    
    Abstract
    Interaktives Information Retrieval (IIR) zielt darauf ab, die komplexen Interaktionen zwischen Nutzer*innen und Systemen im IR zu verstehen. Es gibt umfangreiche Literatur zu Themen wie der formalen Modellierung des Suchverhaltens, der Simulation der Interaktion, den interaktiven Funktionen zur Unterstützung des Suchprozesses und der Evaluierung interaktiver Suchsysteme. Dabei ist die interaktive Unterstützung nicht allein auf die Suche beschränkt, sondern hat ebenso die Hilfe bei Navigation und Exploration zum Ziel.
  14. Graf, K.: DNB, die "schlechteste Nationalbibliothek der Galaxis" (Graf), laesst einmal mehr URN-Links ins Leere laufen (2023) 0.01
    0.006275865 = product of:
      0.087862104 = sum of:
        0.087862104 = weight(_text_:elektronische in 978) [ClassicSimilarity], result of:
          0.087862104 = score(doc=978,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.6269798 = fieldWeight in 978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.09375 = fieldNorm(doc=978)
      0.071428575 = coord(1/14)
    
    Theme
    Elektronische Dokumente
  15. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.01
    0.0056654443 = product of:
      0.039658107 = sum of:
        0.025709987 = weight(_text_:wide in 752) [ClassicSimilarity], result of:
          0.025709987 = score(doc=752,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.1958137 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.013948122 = weight(_text_:web in 752) [ClassicSimilarity], result of:
          0.013948122 = score(doc=752,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.14422815 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.14285715 = coord(2/14)
    
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
  16. Gierke, B.: ¬Der Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : eine Kurzvorstellung (2020) 0.01
    0.0055950056 = product of:
      0.03916504 = sum of:
        0.033111244 = weight(_text_:bibliothek in 5709) [ClassicSimilarity], result of:
          0.033111244 = score(doc=5709,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.27216077 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.0060537956 = weight(_text_:information in 5709) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=5709,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
      0.14285715 = coord(2/14)
    
    Abstract
    Im Rahmen des DFG Förderprogramms Fachinformationsdienste (FID) nahm der FID Buch- Bibliotheks- und Informationswissenschaft, eine Kooperation der Herzog August Bibliothek Wolfenbüttel und der Universitätsbibliothek Leipzig, im Oktober 2017 seine Arbeit auf. Ziel ist, die Spitzenversorgung mit Literatur für Wissenschaftlerinnen und Wissenschaftler dieser und angrenzenden Disziplinen sicher zu stellen. Dazu hat der FID BBI ein Discovery Tool entwickelt. Grundlage dafür ist die Open-Source-Software VuFind. Eine Herausforderung für den FID BBI ist die Auswertung unterschiedlichster Datenquellen, weil die Themengebiete des FID BBI sehr weit gefächert sind. Das Portal bietet einen schnellen Rechercheeinstieg. Es ist aber auch möglich komplexere Suchanfragen zu stellen. Der Kontakt zu der wissenschaftlichen Gemeinschaft, die der FID BBI bedient, hat große Priorität, um die Ziele, die von der Deutschen Forschungsgemeinschaft gesetzt wurden, zu erfüllen. Ein erster Kontakt kann über das Nachweisportal hergestellt werden: https://katalog.fid-bbi.de.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.1, S.43-48
  17. Kusber, E.: Ständige Aktualisierung von ASB und KAB : Zehn Jahre Systematik-Kooperati-on / Bibliotheken können jederzeit anfragen (2020) 0.00
    0.004730178 = product of:
      0.06622249 = sum of:
        0.06622249 = weight(_text_:bibliothek in 1779) [ClassicSimilarity], result of:
          0.06622249 = score(doc=1779,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.54432154 = fieldWeight in 1779, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.09375 = fieldNorm(doc=1779)
      0.071428575 = coord(1/14)
    
    Series
    Öffentliche Bibliothek
  18. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.00
    0.0047255447 = product of:
      0.033078812 = sum of:
        0.0071344664 = weight(_text_:information in 799) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=799,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 799, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
        0.025944345 = weight(_text_:retrieval in 799) [ClassicSimilarity], result of:
          0.025944345 = score(doc=799,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.28943354 = fieldWeight in 799, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
      0.14285715 = coord(2/14)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
  19. Fuhr, N.: Modelle im Information Retrieval (2023) 0.00
    0.0047255447 = product of:
      0.033078812 = sum of:
        0.0071344664 = weight(_text_:information in 800) [ClassicSimilarity], result of:
          0.0071344664 = score(doc=800,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.13714671 = fieldWeight in 800, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.025944345 = weight(_text_:retrieval in 800) [ClassicSimilarity], result of:
          0.025944345 = score(doc=800,freq=6.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.28943354 = fieldWeight in 800, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
      0.14285715 = coord(2/14)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
  20. Womser-Hacker, C.: Cross-Language Information Retrieval (CLIR) (2023) 0.00
    0.004501639 = product of:
      0.03151147 = sum of:
        0.013536699 = weight(_text_:information in 806) [ClassicSimilarity], result of:
          0.013536699 = score(doc=806,freq=10.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.2602176 = fieldWeight in 806, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=806)
        0.01797477 = weight(_text_:retrieval in 806) [ClassicSimilarity], result of:
          0.01797477 = score(doc=806,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.20052543 = fieldWeight in 806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=806)
      0.14285715 = coord(2/14)
    
    Abstract
    Durch die ständig wachsende internationale Vernetzung ist auch bei der Suche nach Information seit langem eine intensive Entwicklung in Richtung Mehrsprachigkeit feststellbar. Diese wird meist von den Systemen und Technologien her betrachtet. Im informationellen Kontext ist auch die Seite der Nutzer*innen hinzuzuziehen, die etwa in Hinblick auf ihre Mehrsprachigkeit sehr unterschiedlich einzuschätzen sind. Kompetenzen in verschiedenen Sprachen sind eher die Regel als reiner Monolingualismus, der heute nur sehr selten vorzufinden ist. Die Nutzer*innen unterscheiden sich in den Niveaus ihrer Sprachkompetenz, die von rudimentärem Sprachverständnis bis hin zu muttersprachlichen Fähigkeiten reichen. Es wird zunehmend zur Gewohnheit und auch zur Notwendigkeit, auf multilinguale Kollektionen zuzugreifen und nach Information nicht nur in der Muttersprache zu suchen. Oft hängt dies auch davon ab, ob in beruflichen oder privaten Umgebungen mit entsprechenden Zielsetzungen gesucht wird. Information bleibt Information, auch wenn verschiedene Sprachen aufeinandertreffen, was z. B. für verschiedene mediale Formen von Informationsobjekten wie z. B. Bilder gilt.

Authors

Languages

Types

  • a 114
  • el 59
  • m 15
  • s 4
  • x 2
  • More… Less…

Subjects