Search (237 results, page 1 of 12)

  • × theme_ss:"Automatisches Indexieren"
  1. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.02448107 = product of:
      0.12546548 = sum of:
        0.02910841 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.02910841 = score(doc=897,freq=4.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.02910841 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.02910841 = score(doc=897,freq=4.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008705214 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008705214 = score(doc=897,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008705214 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008705214 = score(doc=897,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.0026638734 = product of:
          0.0053277467 = sum of:
            0.0053277467 = weight(_text_:4 in 897) [ClassicSimilarity], result of:
              0.0053277467 = score(doc=897,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.11992966 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.008705214 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008705214 = score(doc=897,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.012823046 = product of:
          0.025646092 = sum of:
            0.025646092 = weight(_text_:insgesamt in 897) [ClassicSimilarity], result of:
              0.025646092 = score(doc=897,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.263127 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.025646092 = weight(_text_:insgesamt in 897) [ClassicSimilarity], result of:
          0.025646092 = score(doc=897,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.263127 = fieldWeight in 897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.19512194 = coord(8/41)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Date
    4. 6.2013 14:03:39
    Field
    Medizin
  2. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.01563909 = product of:
      0.10686712 = sum of:
        0.025728444 = weight(_text_:medizin in 3780) [ClassicSimilarity], result of:
          0.025728444 = score(doc=3780,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.29465687 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.025728444 = weight(_text_:medizin in 3780) [ClassicSimilarity], result of:
          0.025728444 = score(doc=3780,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.29465687 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.01662179 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.01662179 = score(doc=3780,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.01662179 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.01662179 = score(doc=3780,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.01662179 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.01662179 = score(doc=3780,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.0055448585 = product of:
          0.011089717 = sum of:
            0.011089717 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.011089717 = score(doc=3780,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  3. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.01
    0.014660232 = product of:
      0.10017826 = sum of:
        0.011920105 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.011920105 = score(doc=1915,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.011920105 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.011920105 = score(doc=1915,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.006714229 = product of:
          0.013428458 = sum of:
            0.013428458 = weight(_text_:29 in 1915) [ClassicSimilarity], result of:
              0.013428458 = score(doc=1915,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23319192 = fieldWeight in 1915, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
        0.011920105 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.011920105 = score(doc=1915,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.01923457 = product of:
          0.03846914 = sum of:
            0.03846914 = weight(_text_:insgesamt in 1915) [ClassicSimilarity], result of:
              0.03846914 = score(doc=1915,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.3946905 = fieldWeight in 1915, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
        0.03846914 = weight(_text_:insgesamt in 1915) [ClassicSimilarity], result of:
          0.03846914 = score(doc=1915,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.3946905 = fieldWeight in 1915, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
      0.14634146 = coord(6/41)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  4. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.01
    0.014063494 = product of:
      0.11532065 = sum of:
        0.018466547 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.018466547 = score(doc=7726,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.029960508 = product of:
          0.059921015 = sum of:
            0.059921015 = weight(_text_:allgemein in 7726) [ClassicSimilarity], result of:
              0.059921015 = score(doc=7726,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.69663453 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
        0.018466547 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.018466547 = score(doc=7726,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.018466547 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.018466547 = score(doc=7726,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.029960508 = product of:
          0.059921015 = sum of:
            0.059921015 = weight(_text_:allgemein in 7726) [ClassicSimilarity], result of:
              0.059921015 = score(doc=7726,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.69663453 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
    Theme
    Katalogfragen allgemein
  5. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.01
    0.012767066 = product of:
      0.10468994 = sum of:
        0.02910841 = weight(_text_:medizin in 6078) [ClassicSimilarity], result of:
          0.02910841 = score(doc=6078,freq=4.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.3333662 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.02910841 = weight(_text_:medizin in 6078) [ClassicSimilarity], result of:
          0.02910841 = score(doc=6078,freq=4.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.3333662 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.01549104 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.01549104 = score(doc=6078,freq=38.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.01549104 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.01549104 = score(doc=6078,freq=38.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.01549104 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.01549104 = score(doc=6078,freq=38.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.12195122 = coord(5/41)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Field
    Medizin
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  6. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.01
    0.0114942435 = product of:
      0.094252795 = sum of:
        0.015388789 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.015388789 = score(doc=366,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.015388789 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.015388789 = score(doc=366,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.015388789 = weight(_text_:und in 366) [ClassicSimilarity], result of:
          0.015388789 = score(doc=366,freq=24.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.42413816 = fieldWeight in 366, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.016028808 = product of:
          0.032057617 = sum of:
            0.032057617 = weight(_text_:insgesamt in 366) [ClassicSimilarity], result of:
              0.032057617 = score(doc=366,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.32890874 = fieldWeight in 366, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=366)
          0.5 = coord(1/2)
        0.032057617 = weight(_text_:insgesamt in 366) [ClassicSimilarity], result of:
          0.032057617 = score(doc=366,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.32890874 = fieldWeight in 366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
      0.12195122 = coord(5/41)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
    Series
    Bibliotheks- und Informationspraxis; 70
  7. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.01
    0.011357512 = product of:
      0.1164145 = sum of:
        0.01966717 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.01966717 = score(doc=782,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.057412993 = weight(_text_:einzelner in 782) [ClassicSimilarity], result of:
          0.057412993 = score(doc=782,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.52080953 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.01966717 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.01966717 = score(doc=782,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.01966717 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.01966717 = score(doc=782,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.09756097 = coord(4/41)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  8. Gödert, W.; Lepsky, K.: Semantische Umfeldsuche im Information Retrieval (1998) 0.01
    0.010526657 = product of:
      0.07193216 = sum of:
        0.010772152 = weight(_text_:und in 606) [ClassicSimilarity], result of:
          0.010772152 = score(doc=606,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 606, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=606)
        0.017476963 = product of:
          0.034953926 = sum of:
            0.034953926 = weight(_text_:allgemein in 606) [ClassicSimilarity], result of:
              0.034953926 = score(doc=606,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.40637016 = fieldWeight in 606, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=606)
          0.5 = coord(1/2)
        0.010772152 = weight(_text_:und in 606) [ClassicSimilarity], result of:
          0.010772152 = score(doc=606,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 606, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=606)
        0.0046617785 = product of:
          0.009323557 = sum of:
            0.009323557 = weight(_text_:4 in 606) [ClassicSimilarity], result of:
              0.009323557 = score(doc=606,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2098769 = fieldWeight in 606, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=606)
          0.5 = coord(1/2)
        0.010772152 = weight(_text_:und in 606) [ClassicSimilarity], result of:
          0.010772152 = score(doc=606,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 606, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=606)
        0.017476963 = product of:
          0.034953926 = sum of:
            0.034953926 = weight(_text_:allgemein in 606) [ClassicSimilarity], result of:
              0.034953926 = score(doc=606,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.40637016 = fieldWeight in 606, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=606)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    Sachliche Suchen in bibliothekarischen Online-Katalogen enden häufig mit unbefriedigenden Ergebnissen. Als eine Ursache dafür kann angesehen werden, daß die Gestaltung des Suchprozesses das semantische Umfeld einer Suchanfrage nicht mit einbezieht, daß in Übertragung der Verhältnisse in konventionellen Katalogen am Paradigma des Wort-Matching zwischen Suchwort und Indexat festgehalten wird. Es wird statt dessen das Konzept einer semantischen Umfeldsuche entwickelt und gezeigt, welche Rolle die Verwendung strukturierten Vokabulars dafür spielen kann. Insbesondere wird dargestellt, welche Möglichkeiten Verfahren der wörterbuchgestützten maschinellen Indexierung in diesem Zusammenhang spielen können. Die Ausführungen werden durch Beispiele illustriert
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 45(1998) H.4, S.401-423
    Theme
    Katalogfragen allgemein
  9. Kuhlen, R.: Experimentelle Morphologie in der Informationswissenschaft (1977) 0.01
    0.010116374 = product of:
      0.10369284 = sum of:
        0.08503492 = product of:
          0.17006984 = sum of:
            0.17006984 = weight(_text_:morphologie in 4253) [ClassicSimilarity], result of:
              0.17006984 = score(doc=4253,freq=6.0), product of:
                0.14416489 = queryWeight, product of:
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.016370254 = queryNorm
                1.1796898 = fieldWeight in 4253, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4253)
          0.5 = coord(1/2)
        0.0062193046 = weight(_text_:und in 4253) [ClassicSimilarity], result of:
          0.0062193046 = score(doc=4253,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.17141339 = fieldWeight in 4253, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4253)
        0.0062193046 = weight(_text_:und in 4253) [ClassicSimilarity], result of:
          0.0062193046 = score(doc=4253,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.17141339 = fieldWeight in 4253, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4253)
        0.0062193046 = weight(_text_:und in 4253) [ClassicSimilarity], result of:
          0.0062193046 = score(doc=4253,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.17141339 = fieldWeight in 4253, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4253)
      0.09756097 = coord(4/41)
    
    Content
    Zugl.: Regensburg, Univ., Diss. u.d.T.: Kuhlen, Rainer: Flexine und Derivative in der maschinellen Verarbeitung englischer Texte
    RSWK
    Automatische Sprachanalyse / Morphologie <Linguistik>
    Subject
    Automatische Sprachanalyse / Morphologie <Linguistik>
  10. Toepfer, M.; Kempf, A.O.: Automatische Indexierung auf Basis von Titeln und Autoren-Keywords : ein Werkstattbericht (2016) 0.01
    0.009657309 = product of:
      0.06599162 = sum of:
        0.012564893 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.012564893 = score(doc=3209,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.012483546 = product of:
          0.024967091 = sum of:
            0.024967091 = weight(_text_:allgemein in 3209) [ClassicSimilarity], result of:
              0.024967091 = score(doc=3209,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2902644 = fieldWeight in 3209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3209)
          0.5 = coord(1/2)
        0.012564893 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.012564893 = score(doc=3209,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.003329842 = product of:
          0.006659684 = sum of:
            0.006659684 = weight(_text_:4 in 3209) [ClassicSimilarity], result of:
              0.006659684 = score(doc=3209,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.14991207 = fieldWeight in 3209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3209)
          0.5 = coord(1/2)
        0.012564893 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.012564893 = score(doc=3209,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.012483546 = product of:
          0.024967091 = sum of:
            0.024967091 = weight(_text_:allgemein in 3209) [ClassicSimilarity], result of:
              0.024967091 = score(doc=3209,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2902644 = fieldWeight in 3209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3209)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    Automatische Verfahren sind für Bibliotheken essentiell, um die Erschliessung stetig wachsender Datenmengen zu stemmen. Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft sammelt seit Längerem Erfahrungen im Bereich automatischer Indexierung und baut hier eigene Kompetenzen auf. Aufgrund rechtlicher Restriktionen werden unter anderem Ansätze untersucht, die ohne Volltextnutzung arbeiten. Dieser Beitrag gibt einen Einblick in ein laufendes Teilprojekt, das unter Verwendung von Titeln und Autoren-Keywords auf eine Nachnormierung der inhaltsbeschreibenden Metadaten auf den Standard-Thesaurus Wirtschaft (STW) abzielt. Wir erläutern den Hintergrund der Arbeit, betrachten die Systemarchitektur und stellen erste vielversprechende Ergebnisse eines dokumentenorientierten Verfahrens vor.
    Im Folgenden erläutern wir zunächst den Hintergrund der aktuellen Arbeit. Wir beziehen uns auf Erfahrungen mit maschinellen Verfahren allgemein und an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft im Speziellen. Im Anschluss geben wir einen konkreten Einblick in ein laufendes Teilprojekt, bei dem die Systemarchitektur der Automatik gegenüber früheren Arbeiten Titel und Autoren-Keywords gemeinsam verwendet, um eine Nachnormierung auf den Standard-Thesaurus Wirtschaft (STW) zu erzielen. Im Gegenssatz zu einer statischen Verknüpfung im Sinne einer Crosskonkordanz bzw. Vokabularabbildung ist das jetzt verfolgte Vorgehen dokumentenorientiert und damit in der Lage, kontextbezogene Zuordnungen vorzunehmen. Der Artikel stellt neben der Systemarchitektur auch erste experimentelle Ergebnisse vor, die im Vergleich zu titelbasierten Vorhersagen bereits deutliche Verbesserungen aufzeigen.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/156/354.
    Source
    027.7 Zeitschrift für Bibliothekskultur. 4(2016), H.2
  11. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.01
    0.0079352865 = product of:
      0.06506935 = sum of:
        0.010772152 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.010772152 = score(doc=5344,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010772152 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.010772152 = score(doc=5344,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.02499009 = sum of:
          0.009323557 = weight(_text_:4 in 5344) [ClassicSimilarity], result of:
            0.009323557 = score(doc=5344,freq=2.0), product of:
              0.04442393 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016370254 = queryNorm
              0.2098769 = fieldWeight in 5344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5344)
          0.015666533 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
            0.015666533 = score(doc=5344,freq=2.0), product of:
              0.057585433 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016370254 = queryNorm
              0.27205724 = fieldWeight in 5344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=5344)
        0.010772152 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.010772152 = score(doc=5344,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.007762802 = product of:
          0.015525604 = sum of:
            0.015525604 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.015525604 = score(doc=5344,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.327-331
  12. Strobel, S.: Englischsprachige Erweiterung des TIB / AV-Portals : Ein GND/DBpedia-Mapping zur Gewinnung eines englischen Begriffssystems (2014) 0.01
    0.007489452 = product of:
      0.061413508 = sum of:
        0.0044423607 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2876,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.0044423607 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2876,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.0044423607 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.0044423607 = score(doc=2876,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.016028808 = product of:
          0.032057617 = sum of:
            0.032057617 = weight(_text_:insgesamt in 2876) [ClassicSimilarity], result of:
              0.032057617 = score(doc=2876,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.32890874 = fieldWeight in 2876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2876)
          0.5 = coord(1/2)
        0.032057617 = weight(_text_:insgesamt in 2876) [ClassicSimilarity], result of:
          0.032057617 = score(doc=2876,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.32890874 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
      0.12195122 = coord(5/41)
    
    Abstract
    Die Videos des TIB / AV-Portals werden mit insgesamt 63.356 GND-Sachbegriffen aus Naturwissenschaft und Technik automatisch verschlagwortet. Neben den deutschsprachigen Videos verfügt das TIB / AV-Portal auch über zahlreiche englischsprachige Videos. Die GND enthält zu den in der TIB / AV-Portal-Wissensbasis verwendeten Sachbegriffen nur sehr wenige englische Bezeichner. Es fehlt demnach ein englisches Indexierungsvokabular, mit dem die englischsprachigen Videos automatisch verschlagwortet werden können. Die Lösung dieses Problems sieht wie folgt aus: Die englischen Bezeichner sollen über ein Mapping der GND-Sachbegriffe auf andere Datensätze gewonnen werden, die eine englische Übersetzung der Begriffe enthalten. Die verwendeten Mappingstrategien nutzen die DBpedia, LCSH, MACS-Ergebnisse sowie den WTI-Thesaurus. Am Ende haben 35.025 GND-Sachbegriffe (mindestens) einen englischen Bezeichner ermittelt bekommen. Diese englischen Bezeichner können für die automatische Verschlagwortung der englischsprachigen Videos unmittelbar herangezogen werden. 11.694 GND-Sachbegriffe konnten zwar nicht ins Englische "übersetzt", aber immerhin mit einem Oberbegriff assoziiert werden, der eine englische Übersetzung hat. Diese Assoziation dient der Erweiterung der Suchergebnisse.
  13. Nicoletti, M.: Automatische Indexierung (2001) 0.01
    0.0073000146 = product of:
      0.07482515 = sum of:
        0.010661665 = weight(_text_:und in 4326) [ClassicSimilarity], result of:
          0.010661665 = score(doc=4326,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
        0.010661665 = weight(_text_:und in 4326) [ClassicSimilarity], result of:
          0.010661665 = score(doc=4326,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
        0.042840153 = sum of:
          0.015983239 = weight(_text_:4 in 4326) [ClassicSimilarity], result of:
            0.015983239 = score(doc=4326,freq=2.0), product of:
              0.04442393 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016370254 = queryNorm
              0.35978895 = fieldWeight in 4326, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.09375 = fieldNorm(doc=4326)
          0.026856916 = weight(_text_:29 in 4326) [ClassicSimilarity], result of:
            0.026856916 = score(doc=4326,freq=2.0), product of:
              0.057585433 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016370254 = queryNorm
              0.46638384 = fieldWeight in 4326, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.09375 = fieldNorm(doc=4326)
        0.010661665 = weight(_text_:und in 4326) [ClassicSimilarity], result of:
          0.010661665 = score(doc=4326,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 4326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4326)
      0.09756097 = coord(4/41)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.
    Date
    29. 9.2017 12:00:04
  14. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.01
    0.007088653 = product of:
      0.058126952 = sum of:
        0.015234124 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.015234124 = score(doc=5195,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.015234124 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.015234124 = score(doc=5195,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.0046617785 = product of:
          0.009323557 = sum of:
            0.009323557 = weight(_text_:4 in 5195) [ClassicSimilarity], result of:
              0.009323557 = score(doc=5195,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2098769 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
        0.015234124 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.015234124 = score(doc=5195,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.007762802 = product of:
          0.015525604 = sum of:
            0.015525604 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.015525604 = score(doc=5195,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
    Source
    ABI-Technik. 38(2018) H.4, S.332-335
  15. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.01
    0.0069510834 = product of:
      0.071248606 = sum of:
        0.012813727 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.012813727 = score(doc=2543,freq=26.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.032807425 = weight(_text_:einzelner in 2543) [ClassicSimilarity], result of:
          0.032807425 = score(doc=2543,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.29760545 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.012813727 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.012813727 = score(doc=2543,freq=26.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.012813727 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.012813727 = score(doc=2543,freq=26.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.09756097 = coord(4/41)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  16. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.01
    0.0067607546 = product of:
      0.06929774 = sum of:
        0.02132333 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.02132333 = score(doc=886,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.02132333 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.02132333 = score(doc=886,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.0053277467 = product of:
          0.0106554935 = sum of:
            0.0106554935 = weight(_text_:4 in 886) [ClassicSimilarity], result of:
              0.0106554935 = score(doc=886,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23985931 = fieldWeight in 886, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0625 = fieldNorm(doc=886)
          0.5 = coord(1/2)
        0.02132333 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.02132333 = score(doc=886,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.09756097 = coord(4/41)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
    Source
    ABI-Technik. 24(2004) H.4, S.262-
  17. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.01
    0.0067149363 = product of:
      0.0688281 = sum of:
        0.018466547 = weight(_text_:und in 3645) [ClassicSimilarity], result of:
          0.018466547 = score(doc=3645,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 3645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.018466547 = weight(_text_:und in 3645) [ClassicSimilarity], result of:
          0.018466547 = score(doc=3645,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 3645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
        0.013428458 = product of:
          0.026856916 = sum of:
            0.026856916 = weight(_text_:29 in 3645) [ClassicSimilarity], result of:
              0.026856916 = score(doc=3645,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46638384 = fieldWeight in 3645, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3645)
          0.5 = coord(1/2)
        0.018466547 = weight(_text_:und in 3645) [ClassicSimilarity], result of:
          0.018466547 = score(doc=3645,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.5089658 = fieldWeight in 3645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3645)
      0.09756097 = coord(4/41)
    
    Date
    23.10.1996 17:26:29
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
  18. Donath, A.: Flickr sorgt mit Automatik-Tags für Aufregung (2015) 0.01
    0.006678945 = product of:
      0.054767348 = sum of:
        0.0099334195 = weight(_text_:und in 1876) [ClassicSimilarity], result of:
          0.0099334195 = score(doc=1876,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27378 = fieldWeight in 1876, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1876)
        0.012483546 = product of:
          0.024967091 = sum of:
            0.024967091 = weight(_text_:allgemein in 1876) [ClassicSimilarity], result of:
              0.024967091 = score(doc=1876,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2902644 = fieldWeight in 1876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1876)
          0.5 = coord(1/2)
        0.0099334195 = weight(_text_:und in 1876) [ClassicSimilarity], result of:
          0.0099334195 = score(doc=1876,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27378 = fieldWeight in 1876, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1876)
        0.0099334195 = weight(_text_:und in 1876) [ClassicSimilarity], result of:
          0.0099334195 = score(doc=1876,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27378 = fieldWeight in 1876, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1876)
        0.012483546 = product of:
          0.024967091 = sum of:
            0.024967091 = weight(_text_:allgemein in 1876) [ClassicSimilarity], result of:
              0.024967091 = score(doc=1876,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2902644 = fieldWeight in 1876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1876)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Content
    "Flickr hat ein Tagging der heraufgeladenen Fotos eingeführt, das zusätzlich zu den Bildbeschreibungen der Nutzer versucht, die Fotos mit Schlagwörtern zu versehen, die den Bildinhalt beschreiben. Nach einem Bericht des britischen Guardian werden dabei Fehler gemacht, die unangebrachte Beschreibungen bis hin zu rassistischen oder politisch inkorrekten Bemerkungen beinhalten. So wurden dunkelhäutiger Menschen als "monochrom", "Tier" und "Affe" beschrieben. Auch das Gesicht einer hellhäutigen Frau wurde mit "Tier" klassifiziert. Bilder eines Konzentrationslagers wurden gar mit "Sport" und "Klettergerüst" verschlagwortet. Die automatischen Tags lassen sich nicht abschalten - und befinden sich nach Angaben von Yahoo noch in der Betaphase. Viel bringen sie nach Einschätzung von Golem.de nicht, da sie recht allgemein gehalten und wenig aussagekräftig sind. Oftmals kann der Algorithmus nur "Indoor" oder "Outdoor" hinzufügen, was zwar fast immer korrekt zugeordnet wird, dennoch wenig nutzt. Hinter den Kulissen scheint Flickr bereits an einer Verbesserung zu arbeiten - und hat dem Guardian auf Nachfrage versichert, dass die Probleme mit falschen Tags bekannt seien. Einige fehlerhafte Schlagwörter wurden mittlerweile auch wieder entfernt." Vgl. auch: https://news.ycombinator.com/item?id=8621658.
  19. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0064900066 = product of:
      0.06652257 = sum of:
        0.011238382 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011238382 = score(doc=935,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.032807425 = weight(_text_:einzelner in 935) [ClassicSimilarity], result of:
          0.032807425 = score(doc=935,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.29760545 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011238382 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011238382 = score(doc=935,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011238382 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011238382 = score(doc=935,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.09756097 = coord(4/41)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  20. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.01
    0.006218199 = product of:
      0.06373654 = sum of:
        0.018657913 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.018657913 = score(doc=5671,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.018657913 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.018657913 = score(doc=5671,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.018657913 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.018657913 = score(doc=5671,freq=18.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.007762802 = product of:
          0.015525604 = sum of:
            0.015525604 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.015525604 = score(doc=5671,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.09756097 = coord(4/41)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78

Languages

Types

  • a 184
  • x 31
  • el 23
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…