Search (1277 results, page 1 of 64)

  • × year_i:[2020 TO 2030}
  1. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.07
    0.07466726 = product of:
      0.14933452 = sum of:
        0.03775026 = weight(_text_:von in 374) [ClassicSimilarity], result of:
          0.03775026 = score(doc=374,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.11158426 = sum of:
          0.003525567 = weight(_text_:a in 374) [ClassicSimilarity], result of:
            0.003525567 = score(doc=374,freq=2.0), product of:
              0.055348642 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.04800207 = queryNorm
              0.06369744 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.075540595 = weight(_text_:z in 374) [ClassicSimilarity], result of:
            0.075540595 = score(doc=374,freq=2.0), product of:
              0.2562021 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04800207 = queryNorm
              0.29484767 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.032518093 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
            0.032518093 = score(doc=374,freq=2.0), product of:
              0.16809508 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04800207 = queryNorm
              0.19345059 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
      0.5 = coord(2/4)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Type
    a
  2. Fassbender, J.: Register / Indexe (2023) 0.07
    0.07246724 = product of:
      0.14493448 = sum of:
        0.055481322 = weight(_text_:von in 785) [ClassicSimilarity], result of:
          0.055481322 = score(doc=785,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.43322086 = fieldWeight in 785, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=785)
        0.08945315 = product of:
          0.13417973 = sum of:
            0.005983086 = weight(_text_:a in 785) [ClassicSimilarity], result of:
              0.005983086 = score(doc=785,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10809815 = fieldWeight in 785, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=785)
            0.12819664 = weight(_text_:z in 785) [ClassicSimilarity], result of:
              0.12819664 = score(doc=785,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5003731 = fieldWeight in 785, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=785)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Fokus dieses Artikels liegt auf der Indexerstellung von Publikationen, d. h. der detaillierten Indexierung der Inhalte von Dokumenten statt der Indexierung auf Dokumentebene, welche sich auf das Gesamtthema von Dokumenten beschränkt. Zu letzterer zählen z. B. das Hauptthema von Artikeln, die Sachkatalogisierung von Büchern oder die Erschließung von Objekten in der Museumsdokumentation. Die Worte Index und Register werden synonym benutzt. Das Wort Index ist nicht nur ein Homonym aus unterschiedlichen Bereichen (z. B. Finanzwesen, Mathematik), sondern auch ein Polysem im Publikationswesen, da es in romanischen Sprachen sowohl Inhaltsverzeichnis als auch Register meinen kann. Während im Finanzwesen, Mathematik u. a. die Pluralform Indizes benutzt wird, ist im bibliographischen Sinn Indexe der korrekte Plural (engl.: indexes), es sei denn, es geht um Indices zu alten Werken in lateinischer Sprache (index rerum, index nominum, index verborum). Etymologie, Bedeutung und Plural des Wortes Index erläutert Wellisch ausführlich.
    Type
    a
  3. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.07
    0.07041071 = product of:
      0.14082143 = sum of:
        0.03775026 = weight(_text_:von in 373) [ClassicSimilarity], result of:
          0.03775026 = score(doc=373,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 373, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.103071176 = product of:
          0.15460676 = sum of:
            0.003525567 = weight(_text_:a in 373) [ClassicSimilarity], result of:
              0.003525567 = score(doc=373,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
            0.15108119 = weight(_text_:z in 373) [ClassicSimilarity], result of:
              0.15108119 = score(doc=373,freq=8.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.58969533 = fieldWeight in 373, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Type
    a
  4. Wiesenmüller, H.: Formale Erschließung (2023) 0.07
    0.06648159 = product of:
      0.13296318 = sum of:
        0.022650154 = weight(_text_:von in 784) [ClassicSimilarity], result of:
          0.022650154 = score(doc=784,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.17686167 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.11031303 = product of:
          0.16546954 = sum of:
            0.008461362 = weight(_text_:a in 784) [ClassicSimilarity], result of:
              0.008461362 = score(doc=784,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 784, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=784)
            0.15700819 = weight(_text_:z in 784) [ClassicSimilarity], result of:
              0.15700819 = score(doc=784,freq=6.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.61282945 = fieldWeight in 784, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=784)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Type
    a
  5. Womser-Hacker, C.: Cross-Language Information Retrieval (CLIR) (2023) 0.06
    0.06375805 = product of:
      0.1275161 = sum of:
        0.039231222 = weight(_text_:von in 806) [ClassicSimilarity], result of:
          0.039231222 = score(doc=806,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 806, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=806)
        0.08828488 = product of:
          0.13242732 = sum of:
            0.004230681 = weight(_text_:a in 806) [ClassicSimilarity], result of:
              0.004230681 = score(doc=806,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 806, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=806)
            0.12819664 = weight(_text_:z in 806) [ClassicSimilarity], result of:
              0.12819664 = score(doc=806,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5003731 = fieldWeight in 806, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=806)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Durch die ständig wachsende internationale Vernetzung ist auch bei der Suche nach Information seit langem eine intensive Entwicklung in Richtung Mehrsprachigkeit feststellbar. Diese wird meist von den Systemen und Technologien her betrachtet. Im informationellen Kontext ist auch die Seite der Nutzer*innen hinzuzuziehen, die etwa in Hinblick auf ihre Mehrsprachigkeit sehr unterschiedlich einzuschätzen sind. Kompetenzen in verschiedenen Sprachen sind eher die Regel als reiner Monolingualismus, der heute nur sehr selten vorzufinden ist. Die Nutzer*innen unterscheiden sich in den Niveaus ihrer Sprachkompetenz, die von rudimentärem Sprachverständnis bis hin zu muttersprachlichen Fähigkeiten reichen. Es wird zunehmend zur Gewohnheit und auch zur Notwendigkeit, auf multilinguale Kollektionen zuzugreifen und nach Information nicht nur in der Muttersprache zu suchen. Oft hängt dies auch davon ab, ob in beruflichen oder privaten Umgebungen mit entsprechenden Zielsetzungen gesucht wird. Information bleibt Information, auch wenn verschiedene Sprachen aufeinandertreffen, was z. B. für verschiedene mediale Formen von Informationsobjekten wie z. B. Bilder gilt.
    Type
    a
  6. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.06
    0.061621696 = product of:
      0.12324339 = sum of:
        0.032692686 = weight(_text_:von in 367) [ClassicSimilarity], result of:
          0.032692686 = score(doc=367,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.25527787 = fieldWeight in 367, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.090550706 = product of:
          0.13582605 = sum of:
            0.0049859053 = weight(_text_:a in 367) [ClassicSimilarity], result of:
              0.0049859053 = score(doc=367,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.090081796 = fieldWeight in 367, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
            0.13084015 = weight(_text_:z in 367) [ClassicSimilarity], result of:
              0.13084015 = score(doc=367,freq=6.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.51069117 = fieldWeight in 367, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Type
    a
  7. Seidler-de Alwis, R.: Informationsrecherche (2023) 0.06
    0.06015852 = product of:
      0.12031704 = sum of:
        0.03203216 = weight(_text_:von in 810) [ClassicSimilarity], result of:
          0.03203216 = score(doc=810,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 810, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=810)
        0.08828488 = product of:
          0.13242732 = sum of:
            0.004230681 = weight(_text_:a in 810) [ClassicSimilarity], result of:
              0.004230681 = score(doc=810,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 810, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=810)
            0.12819664 = weight(_text_:z in 810) [ClassicSimilarity], result of:
              0.12819664 = score(doc=810,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.5003731 = fieldWeight in 810, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=810)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Bei der Informationsrecherche z. B. für einen Vortrag, eine bestimmte Fragestellung oder bei der Einarbeitung in ein neues Aufgabengebiet etc. kann man schnell durch die endlose Informationsflut überfordert sein. Daher braucht es ein methodisches und strukturiertes Vorgehen, um relevante und verlässliche Informationen zu erhalten. Der Informationsrecherchevorgang beinhaltet, zuerst den Informationsbedarf zu erkennen und eine entsprechende Suchstrategie zu entwickeln. Das bedeutet eine sinnvolle Themeneingrenzung, Suchbegriffe festzulegen und auch die Art und Form der Informationen zu bestimmen. Bei der elektronischen Informationsbeschaffung gilt es zunächst, die Sucheingabe zu optimieren, z. B. über eine Stichwort- oder Schlagwortsuche und mit Hilfe der Verwendung von Filtern, Booleschen Operatoren, Trunkierungszeichen und anderen Suchfunktionen. Für die Qualitätssicherung in der Informationsrecherche, vor allem bei der Auswahl, Nutzung und Bewertung von Informationsressourcen, sind Quellenkenntnis, Quellenauswahl und Quellenbewertung zentrale Themen, denen sich dieser Beitrag in der Hauptsache widmet.
    Type
    a
  8. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.06
    0.059782423 = product of:
      0.119564846 = sum of:
        0.04576976 = weight(_text_:von in 42) [ClassicSimilarity], result of:
          0.04576976 = score(doc=42,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.357389 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 42) [ClassicSimilarity], result of:
              0.004935794 = score(doc=42,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
            0.105756834 = weight(_text_:z in 42) [ClassicSimilarity], result of:
              0.105756834 = score(doc=42,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
    Type
    a
  9. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.06
    0.05695011 = product of:
      0.11390022 = sum of:
        0.05064729 = weight(_text_:von in 820) [ClassicSimilarity], result of:
          0.05064729 = score(doc=820,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.39547473 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 820) [ClassicSimilarity], result of:
              0.004230681 = score(doc=820,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=820)
            0.09064872 = weight(_text_:z in 820) [ClassicSimilarity], result of:
              0.09064872 = score(doc=820,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=820)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Type
    a
  10. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.06
    0.055660497 = product of:
      0.111320995 = sum of:
        0.03775026 = weight(_text_:von in 791) [ClassicSimilarity], result of:
          0.03775026 = score(doc=791,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 791, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.073570736 = product of:
          0.1103561 = sum of:
            0.003525567 = weight(_text_:a in 791) [ClassicSimilarity], result of:
              0.003525567 = score(doc=791,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 791, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
            0.10683053 = weight(_text_:z in 791) [ClassicSimilarity], result of:
              0.10683053 = score(doc=791,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41697758 = fieldWeight in 791, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Type
    a
  11. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.05
    0.05298814 = product of:
      0.10597628 = sum of:
        0.067529716 = weight(_text_:von in 251) [ClassicSimilarity], result of:
          0.067529716 = score(doc=251,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.52729964 = fieldWeight in 251, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=251)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 251) [ClassicSimilarity], result of:
              0.005640907 = score(doc=251,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
            0.052028947 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.052028947 = score(doc=251,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.
    Date
    22. 5.2021 12:43:05
    Type
    a
  12. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.05
    0.05286971 = product of:
      0.10573942 = sum of:
        0.06353335 = product of:
          0.19060004 = sum of:
            0.19060004 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.19060004 = score(doc=1000,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.04220607 = weight(_text_:von in 1000) [ClassicSimilarity], result of:
          0.04220607 = score(doc=1000,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.32956228 = fieldWeight in 1000, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  13. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.05
    0.05072257 = product of:
      0.10144514 = sum of:
        0.05338693 = weight(_text_:von in 236) [ClassicSimilarity], result of:
          0.05338693 = score(doc=236,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.416867 = fieldWeight in 236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.04805821 = product of:
          0.07208732 = sum of:
            0.007051134 = weight(_text_:a in 236) [ClassicSimilarity], result of:
              0.007051134 = score(doc=236,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
            0.065036185 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.065036185 = score(doc=236,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
    Type
    a
  14. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.05
    0.050641805 = product of:
      0.10128361 = sum of:
        0.06353335 = product of:
          0.19060004 = sum of:
            0.19060004 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.19060004 = score(doc=5669,freq=2.0), product of:
                0.4069621 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.03775026 = weight(_text_:von in 5669) [ClassicSimilarity], result of:
          0.03775026 = score(doc=5669,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 5669, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.5 = coord(2/4)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  15. Ermert, A.: Normen und Standardisierung im Informationsbereich (2023) 0.05
    0.05061888 = product of:
      0.10123776 = sum of:
        0.026693465 = weight(_text_:von in 778) [ClassicSimilarity], result of:
          0.026693465 = score(doc=778,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 778, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=778)
        0.074544296 = product of:
          0.111816436 = sum of:
            0.0049859053 = weight(_text_:a in 778) [ClassicSimilarity], result of:
              0.0049859053 = score(doc=778,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.090081796 = fieldWeight in 778, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=778)
            0.10683053 = weight(_text_:z in 778) [ClassicSimilarity], result of:
              0.10683053 = score(doc=778,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41697758 = fieldWeight in 778, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=778)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Für die Präsentation von Informationsgehalten, für die Bewahrung, das Wiederauffinden (Retrieval) und ihre gezielte Wiederverwendung hat Strukturierung, Organisation, Gleichförmigkeit schon immer eine wichtige Rolle gespielt. Mit z. B. Zedlers und Krünitz' "Encyclopädien" im 18. Jahrhundert, biologischer und chemischer Nomenklatur oder dem "Urmeter" in Paris 1875 (s. Muschalla 1992) findet dies deutlichen Niederschlag, ebenso im Informationsbereich. Der große Bereich, in dem die Durchsetzung international einheitlicher Standardisierung/Normung allerdings bisher nicht gelungen ist, sind die metrischen Maße (DIN 1301, ISO 80 000 [früher ISO 31, ISO 1000]) (und die Papierformate DIN ISO 216, früher DIN 476). Immer aber zeigt sich auch an solchen Beispielen, dass (der Sinn und Erfolg von) Normung stets in einem Wechselverhältnis steht zwischen Ersparnis, Aufwand und Kosten des Umstellens und dem Nutzen sowie der Umgewöhnung der Anwendenden andererseits. Immerhin bilden sich im Lauf der Entwicklung jedenfalls meist auch "Quasi-Standards/defacto-Standards" heraus, die aufgrund vorherrschender Position eines Akteurs oder eingespielter Praktiken entstehen, sowie "Bereichsstandards", die generell einheitliches Vorgehen immerhin in einem abgegrenzten Bereich etablieren - beides z. B. als innerbetriebliche Standards eines Unternehmens oder als "Industriestandards" eines Bereichs.
    Type
    a
  16. Lewandowski, D.; Womser-Hacker, C.: Information seeking behaviour (2023) 0.05
    0.050110135 = product of:
      0.10022027 = sum of:
        0.026425181 = weight(_text_:von in 816) [ClassicSimilarity], result of:
          0.026425181 = score(doc=816,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 816, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=816)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 816) [ClassicSimilarity], result of:
              0.004935794 = score(doc=816,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=816)
            0.105756834 = weight(_text_:z in 816) [ClassicSimilarity], result of:
              0.105756834 = score(doc=816,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 816, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=816)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Vielzahl der Publikationen zeigt, dass Information Seeking Behaviour (ISB) bzw. Informationssuchverhalten in der informationswissenschaftlichen Forschung als relevantes Thema angesehen wird. ISB versteht sich als Unterkategorie von Information Behaviour (IB) bzw. Informationsverhalten, das jegliches menschliches Verhalten mit Bezug zu Wissen und Information umfasst, also z. B. auch Informationsvermeidung oder passives Informationsverhalten. ISB hingegen wurde anfänglich meist als bewusster Prozess verstanden, um sich aufgrund einer festgestellten Wissenslücke Information zu beschaffen. Information Seeking wird als eine alltägliche Aktivität angesehen, die meist dann auftritt, wenn eine informationell unterbestimmte Handlung durchgeführt werden soll
    Type
    a
  17. Brettschneider, P.: Urheberrecht (2023) 0.05
    0.050110135 = product of:
      0.10022027 = sum of:
        0.026425181 = weight(_text_:von in 822) [ClassicSimilarity], result of:
          0.026425181 = score(doc=822,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=822)
        0.07379509 = product of:
          0.11069263 = sum of:
            0.004935794 = weight(_text_:a in 822) [ClassicSimilarity], result of:
              0.004935794 = score(doc=822,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 822, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=822)
            0.105756834 = weight(_text_:z in 822) [ClassicSimilarity], result of:
              0.105756834 = score(doc=822,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41278675 = fieldWeight in 822, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=822)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    In einer digitalen Wissensgesellschaft kommt dem Urheberrecht eine herausragende Bedeutung zu. Es ist - wie auch das Datenschutzrecht (s. Kapitel F 4 Informationelle Selbstbestimmung und Informationsfreiheit) - Kernbestandteil eines Kommunikationsrechts, das die Weitergabe und Nutzung von Informationen regelt. Daher mag es paradox klingen, dass das Urheberrecht Informationen - wie auch Ideen oder (wissenschaftliche) Theorien - überhaupt nicht schützt.1 Vielmehr greift sein Schutz erst, wenn sich Information z. B. in Form eines gedruckten oder digitalen Textes oder auch einer Rede manifestiert. Dieser richtet sich dann aber nicht auf den Informationsgehalt an sich, sondern seine Verkörperung in Form eines originellen und individuellen Werkes (s. Abschnitt 2 und 3).
    Type
    a
  18. Maas, J.F.: Inhaltserschließung für Discovery-Systeme gestalten (2021) 0.05
    0.047642544 = product of:
      0.09528509 = sum of:
        0.03203216 = weight(_text_:von in 375) [ClassicSimilarity], result of:
          0.03203216 = score(doc=375,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 375) [ClassicSimilarity], result of:
              0.004230681 = score(doc=375,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 375, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=375)
            0.09064872 = weight(_text_:z in 375) [ClassicSimilarity], result of:
              0.09064872 = score(doc=375,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 375, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=375)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken und Informationseinrichtungen erfahren in den letzten Jahren einen Wandel in ihren Aufgaben. Die zunehmende digitale Vernetzung ermöglicht es den Agierenden des Publikations- und Informationswesens, verstärkt die eigene Rolle zu verlassen und in Bereichen tätig zu werden, die bisher nicht dem eigenen Kerngebiet entsprochen haben. So können z. B. Verlage und Autor: innen in Umgehung des Einzelhandels und der Bibliotheken ihre Werke direkt an die Kund:innen verkaufen und ausliefern und Bibliotheken können über Open-Access-Repositorien selbst Werke publizieren. Ich möchte in diesem Beitrag dafür argumentieren, Tätigkeiten in Bibliotheken und Informationseinrichtungen - speziell Erschließung und das Entwickeln von Discovery-Systemen - konsequent in Bezug auf Anwendungsfälle zu denken und zu gestalten. Nur so lässt sich effektiv und effizient sowohl bei der Erschließung als auch bei der Gestaltung der die Erschließung nutzenden Systeme und Prozesse arbeiten. Zunächst möchte ich dafür in den folgenden Abschnitten Berührungspunkte aufzeigen, um auf die vielfältigen Probleme aber auch Möglichkeiten im Zusammenspiel von (Inhalts-)Erschließung und Discovery-Systemen hinzuweisen.
    Type
    a
  19. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.05
    0.047642544 = product of:
      0.09528509 = sum of:
        0.03203216 = weight(_text_:von in 813) [ClassicSimilarity], result of:
          0.03203216 = score(doc=813,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 813, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=813)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 813) [ClassicSimilarity], result of:
              0.004230681 = score(doc=813,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=813)
            0.09064872 = weight(_text_:z in 813) [ClassicSimilarity], result of:
              0.09064872 = score(doc=813,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=813)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
    Type
    a
  20. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.05
    0.047642544 = product of:
      0.09528509 = sum of:
        0.03203216 = weight(_text_:von in 934) [ClassicSimilarity], result of:
          0.03203216 = score(doc=934,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 934, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 934) [ClassicSimilarity], result of:
              0.004230681 = score(doc=934,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 934, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
            0.09064872 = weight(_text_:z in 934) [ClassicSimilarity], result of:
              0.09064872 = score(doc=934,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 934, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
    Type
    a

Languages

  • e 821
  • d 444
  • pt 6
  • m 2
  • sp 1
  • More… Less…

Types

  • a 1148
  • el 287
  • m 55
  • p 14
  • s 10
  • x 4
  • A 1
  • EL 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications