Search (363 results, page 1 of 19)

  • × theme_ss:"Automatisches Indexieren"
  1. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.14
    0.14186504 = product of:
      0.25535706 = sum of:
        0.00961849 = weight(_text_:in in 3780) [ClassicSimilarity], result of:
          0.00961849 = score(doc=3780,freq=10.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.16802745 = fieldWeight in 3780, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.099897936 = weight(_text_:beziehung in 3780) [ClassicSimilarity], result of:
          0.099897936 = score(doc=3780,freq=2.0), product of:
            0.27586335 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.04208298 = queryNorm
            0.36212835 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.02884798 = weight(_text_:zu in 3780) [ClassicSimilarity], result of:
          0.02884798 = score(doc=3780,freq=4.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.23141924 = fieldWeight in 3780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.04272961 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.04272961 = score(doc=3780,freq=28.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.07426304 = sum of:
          0.045754727 = weight(_text_:gesellschaft in 3780) [ClassicSimilarity], result of:
            0.045754727 = score(doc=3780,freq=2.0), product of:
              0.18669544 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.04208298 = queryNorm
              0.24507684 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.028508317 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.028508317 = score(doc=3780,freq=2.0), product of:
              0.14736743 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04208298 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.5555556 = coord(5/9)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Content
    Vgl. dazu auch das Interview mit Rainhard Altenhöner unter: http://www.deutschlandfunkkultur.de/staatsbibliothek-zu-berlin-wird-modernisiert-maschinen.1008.de.html?dram:article_id=393857.
    Date
    19. 8.2017 9:24:22
  2. Tzeras, K.: Zur Aufwandsabschätzung bei der Entwicklung eines Indexierungswörterbuches (1991) 0.12
    0.11866678 = product of:
      0.26700026 = sum of:
        0.08473661 = weight(_text_:informatik in 792) [ClassicSimilarity], result of:
          0.08473661 = score(doc=792,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.3946243 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.01043063 = weight(_text_:in in 792) [ClassicSimilarity], result of:
          0.01043063 = score(doc=792,freq=6.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.1822149 = fieldWeight in 792, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.13985711 = weight(_text_:beziehung in 792) [ClassicSimilarity], result of:
          0.13985711 = score(doc=792,freq=2.0), product of:
            0.27586335 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.04208298 = queryNorm
            0.5069797 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.03197591 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.03197591 = score(doc=792,freq=8.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.34282678 = fieldWeight in 792, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
      0.44444445 = coord(4/9)
    
    Abstract
    Für die automatische Indexierung mit einem vorgegebenen Deskriptorensystem wird ein Wörterbuch benötigt, das möglichst viele Fachausdrücke des Anwendungsgebietes durch Relationen mit Deskriptoren verbindet. Werden die in einem solchen Indexierungswörterbuch erfaßten Relationen aus der Verarbeitung von Texten gewonnen, so ergibt sich eine Beziehung zwischen der Anzahl der Texte und der Größe und Leistungsfähigkeit des Wörterbuches. Die beschreibung derartiger Beziehungen ist besonders vor Beginn der Entwicklung eines automatischen Indexierungssystems von großem Interesse. H. Hüther hat sich in mehreren Arbeiten mit diesem Problem beschäftigt und verschiedene Schätzverfahren theoretische hergeleitet. Für eines der von ihm vorgeschlagenen Schätzverfahren zur Abschätzung der Größe eines Indexierungswörterbuches in Abhängigkeit von der Anzahl der zugrundeliegenden Texte werden im vorliegenden beitrag die Leistungsfähigkeit und die Anwendbarkeit untersucht
    Series
    Informatik-Fachberichte; 289
  3. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.11
    0.110318236 = product of:
      0.19857281 = sum of:
        0.010882079 = weight(_text_:in in 4051) [ClassicSimilarity], result of:
          0.010882079 = score(doc=4051,freq=20.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.19010136 = fieldWeight in 4051, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.079918355 = weight(_text_:beziehung in 4051) [ClassicSimilarity], result of:
          0.079918355 = score(doc=4051,freq=2.0), product of:
            0.27586335 = queryWeight, product of:
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.04208298 = queryNorm
            0.28970268 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5552235 = idf(docFreq=170, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.056530267 = weight(_text_:zu in 4051) [ClassicSimilarity], result of:
          0.056530267 = score(doc=4051,freq=24.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.45348728 = fieldWeight in 4051, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.032940224 = weight(_text_:und in 4051) [ClassicSimilarity], result of:
          0.032940224 = score(doc=4051,freq=26.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.3531656 = fieldWeight in 4051, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.018301891 = product of:
          0.036603782 = sum of:
            0.036603782 = weight(_text_:gesellschaft in 4051) [ClassicSimilarity], result of:
              0.036603782 = score(doc=4051,freq=2.0), product of:
                0.18669544 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.04208298 = queryNorm
                0.19606146 = fieldWeight in 4051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4051)
          0.5 = coord(1/2)
      0.5555556 = coord(5/9)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
    Mit der Anfang 2010 begonnen Implementierung und Ergebnisevaluierung des automatischen Indexierungsverfahrens "Decisiv Categorization" der Firma Recommind soll das hier skizzierte Informationsstrukturierungsproblem in zwei Schritten gelöst werden. Kurz- bis mittelfristig soll die intellektuelle Indexierung durch ein semiautomatisches Verfahren6 unterstützt werden. Mittel- bis langfristig soll das maschinelle Verfahren, aufbauend auf einem entsprechenden Training, in die Lage versetzt werden, sowohl im Hause vorliegende Dokumente vollautomatisch zu indexieren als auch ZBW-fremde digitale Informationsressourcen zu verschlagworten bzw. zu klassifizieren, um sie in einem gemeinsamen Suchraum auffindbar machen zu können. Im Anschluss an diese Einleitung werden die ersten Ansätze maschineller Sacherschließung an der ZBW (2001-2004) und deren Ergebnisse und Problemlagen aufgezeigt. Danach werden die Rahmenbedingungen (Projektauftrag und -ziel) für eine Wiederaufnahme des Vorhabens im Jahre 2009 aufgezeigt, gefolgt von einer Darstellung der Funktionsweise der Recommind-Technologie und deren Einsatz im Rahmen der Sacherschließung von Online-Dokumenten mit einem Thesaurus. Schwerpunkt dieser Abhandlung bilden im Anschluss daran die Evaluierungsmöglichkeiten automatischer Indexierungsansätze sowie die aktuellen Ergebnisse und zentralen Erkenntnisse des Einsatzes im Kontext der ZBW. Das Fazit beschreibt die entsprechenden Schlussfolgerungen aus den erzielten Ergebnissen sowie den Ausblick auf das weitere Vorgehen.
  4. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.08
    0.0803838 = product of:
      0.14469083 = sum of:
        0.04842092 = weight(_text_:informatik in 861) [ClassicSimilarity], result of:
          0.04842092 = score(doc=861,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.2254996 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.009104601 = weight(_text_:in in 861) [ClassicSimilarity], result of:
          0.009104601 = score(doc=861,freq=14.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.15905021 = fieldWeight in 861, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.03997293 = weight(_text_:zu in 861) [ClassicSimilarity], result of:
          0.03997293 = score(doc=861,freq=12.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.3206639 = fieldWeight in 861, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.028890489 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.028890489 = score(doc=861,freq=20.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.018301891 = product of:
          0.036603782 = sum of:
            0.036603782 = weight(_text_:gesellschaft in 861) [ClassicSimilarity], result of:
              0.036603782 = score(doc=861,freq=2.0), product of:
                0.18669544 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.04208298 = queryNorm
                0.19606146 = fieldWeight in 861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.5 = coord(1/2)
      0.5555556 = coord(5/9)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
  5. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.08
    0.0803009 = product of:
      0.18067701 = sum of:
        0.085596904 = weight(_text_:informatik in 1081) [ClassicSimilarity], result of:
          0.085596904 = score(doc=1081,freq=4.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.39863077 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.008603038 = weight(_text_:in in 1081) [ClassicSimilarity], result of:
          0.008603038 = score(doc=1081,freq=8.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.15028831 = fieldWeight in 1081, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.040797204 = weight(_text_:zu in 1081) [ClassicSimilarity], result of:
          0.040797204 = score(doc=1081,freq=8.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.32727623 = fieldWeight in 1081, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.04567987 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.04567987 = score(doc=1081,freq=32.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.44444445 = coord(4/9)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  6. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.08
    0.075500056 = product of:
      0.16987513 = sum of:
        0.08473661 = weight(_text_:informatik in 782) [ClassicSimilarity], result of:
          0.08473661 = score(doc=782,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.3946243 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.0060221264 = weight(_text_:in in 782) [ClassicSimilarity], result of:
          0.0060221264 = score(doc=782,freq=2.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.10520181 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.02855804 = weight(_text_:zu in 782) [ClassicSimilarity], result of:
          0.02855804 = score(doc=782,freq=2.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.22909334 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.050558355 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.050558355 = score(doc=782,freq=20.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.44444445 = coord(4/9)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  7. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.07
    0.06783264 = product of:
      0.15262344 = sum of:
        0.014751139 = weight(_text_:in in 5671) [ClassicSimilarity], result of:
          0.014751139 = score(doc=5671,freq=12.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.2576908 = fieldWeight in 5671, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.06995263 = weight(_text_:zu in 5671) [ClassicSimilarity], result of:
          0.06995263 = score(doc=5671,freq=12.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.5611618 = fieldWeight in 5671, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.04796386 = weight(_text_:und in 5671) [ClassicSimilarity], result of:
          0.04796386 = score(doc=5671,freq=18.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.51424015 = fieldWeight in 5671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.019955821 = product of:
          0.039911643 = sum of:
            0.039911643 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.039911643 = score(doc=5671,freq=2.0), product of:
                0.14736743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208298 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  8. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.06
    0.06288923 = product of:
      0.14150077 = sum of:
        0.06052615 = weight(_text_:informatik in 128) [ClassicSimilarity], result of:
          0.06052615 = score(doc=128,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.2818745 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.006083267 = weight(_text_:in in 128) [ClassicSimilarity], result of:
          0.006083267 = score(doc=128,freq=4.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.10626988 = fieldWeight in 128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.03533142 = weight(_text_:zu in 128) [ClassicSimilarity], result of:
          0.03533142 = score(doc=128,freq=6.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.28342956 = fieldWeight in 128, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.03955993 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.03955993 = score(doc=128,freq=24.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.42413816 = fieldWeight in 128, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.44444445 = coord(4/9)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
    Field
    Informatik
  9. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.06
    0.059223343 = product of:
      0.13325252 = sum of:
        0.06052615 = weight(_text_:informatik in 3194) [ClassicSimilarity], result of:
          0.06052615 = score(doc=3194,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.2818745 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.00961849 = weight(_text_:in in 3194) [ClassicSimilarity], result of:
          0.00961849 = score(doc=3194,freq=10.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.16802745 = fieldWeight in 3194, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.02884798 = weight(_text_:zu in 3194) [ClassicSimilarity], result of:
          0.02884798 = score(doc=3194,freq=4.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.23141924 = fieldWeight in 3194, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.034259904 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.034259904 = score(doc=3194,freq=18.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.44444445 = coord(4/9)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  10. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.06
    0.057483125 = product of:
      0.12933703 = sum of:
        0.06052615 = weight(_text_:informatik in 4283) [ClassicSimilarity], result of:
          0.06052615 = score(doc=4283,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.2818745 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.010536527 = weight(_text_:in in 4283) [ClassicSimilarity], result of:
          0.010536527 = score(doc=4283,freq=12.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.18406484 = fieldWeight in 4283, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.020398602 = weight(_text_:zu in 4283) [ClassicSimilarity], result of:
          0.020398602 = score(doc=4283,freq=2.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.16363811 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03787575 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.03787575 = score(doc=4283,freq=22.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.44444445 = coord(4/9)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  11. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.06
    0.057093553 = product of:
      0.1284605 = sum of:
        0.04842092 = weight(_text_:informatik in 4031) [ClassicSimilarity], result of:
          0.04842092 = score(doc=4031,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.2254996 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.009733227 = weight(_text_:in in 4031) [ClassicSimilarity], result of:
          0.009733227 = score(doc=4031,freq=16.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.17003182 = fieldWeight in 4031, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.03263776 = weight(_text_:zu in 4031) [ClassicSimilarity], result of:
          0.03263776 = score(doc=4031,freq=8.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.26182097 = fieldWeight in 4031, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.037668586 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.037668586 = score(doc=4031,freq=34.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.44444445 = coord(4/9)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  12. Liedloff, V.: Anwendung eines existenten Klassifikationssystems im Bereich der computerunterstützten Inhaltsanalyse (1985) 0.05
    0.046018858 = product of:
      0.10354243 = sum of:
        0.008516574 = weight(_text_:in in 2921) [ClassicSimilarity], result of:
          0.008516574 = score(doc=2921,freq=4.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.14877784 = fieldWeight in 2921, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.040387172 = weight(_text_:zu in 2921) [ClassicSimilarity], result of:
          0.040387172 = score(doc=2921,freq=4.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.32398695 = fieldWeight in 2921, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.022610383 = weight(_text_:und in 2921) [ClassicSimilarity], result of:
          0.022610383 = score(doc=2921,freq=4.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.24241515 = fieldWeight in 2921, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.032028306 = product of:
          0.06405661 = sum of:
            0.06405661 = weight(_text_:gesellschaft in 2921) [ClassicSimilarity], result of:
              0.06405661 = score(doc=2921,freq=2.0), product of:
                0.18669544 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.04208298 = queryNorm
                0.34310755 = fieldWeight in 2921, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2921)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Abstract
    In universitärer Grundlagenforschung wurde das Computergestützte TeXterschließungssystem (CTX) entwickelt. Es ist ein wörterbuchorientiertes Verfahren, das aufbauend auf einer wort- und satzorientierten Verarbeitung von Texten zu einem deutschsprachigen Text/ Dokument formal-inhaltliche Stichwörter (Grundformen, systemintern "Deskriptoren" genannt) erstellt. Diese dienen als Input für die Computer-Unterstützte Inhaltsanalyse (CUI). Mit Hilfe eines Thesaurus werden die Deskriptoren zu Oberbegriffen zusammengefaßt und die durch CTX erstellte Deskriptorliste über eine Vergleichsliste auf die Kategorien (=Oberbegriffe) des Thesaurus abgebildet. Das Ergebnis wird über mathematisch-statistische Auswertungsverfahren weiterverarbeitet. Weitere Vorteile der Einbringung eines Thesaurus werden genannt
    Source
    Anwendungen in der Klassifikation. I. Proc. 8. Jahrestagung der Gesellschaft für Klassifikation, Hofgeismar, 10.-13.4.1984. Hrsg.: R.G. Henzler
  13. Pfeifer, U.: Entwicklung linear-iterativer und logistischer Indexierungsfunktionen (1991) 0.04
    0.044766475 = product of:
      0.20144913 = sum of:
        0.16947322 = weight(_text_:informatik in 794) [ClassicSimilarity], result of:
          0.16947322 = score(doc=794,freq=2.0), product of:
            0.2147273 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.04208298 = queryNorm
            0.7892486 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
        0.03197591 = weight(_text_:und in 794) [ClassicSimilarity], result of:
          0.03197591 = score(doc=794,freq=2.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.34282678 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
      0.22222222 = coord(2/9)
    
    Series
    Informatik-Fachberichte; 289
  14. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.04
    0.043762475 = product of:
      0.09846557 = sum of:
        0.01043063 = weight(_text_:in in 5344) [ClassicSimilarity], result of:
          0.01043063 = score(doc=5344,freq=6.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.1822149 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.040387172 = weight(_text_:zu in 5344) [ClassicSimilarity], result of:
          0.040387172 = score(doc=5344,freq=4.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.32398695 = fieldWeight in 5344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.02769195 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.02769195 = score(doc=5344,freq=6.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.019955821 = product of:
          0.039911643 = sum of:
            0.039911643 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.039911643 = score(doc=5344,freq=2.0), product of:
                0.14736743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208298 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  15. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.043603033 = product of:
      0.098106824 = sum of:
        0.01043063 = weight(_text_:in in 5195) [ClassicSimilarity], result of:
          0.01043063 = score(doc=5195,freq=6.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.1822149 = fieldWeight in 5195, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.02855804 = weight(_text_:zu in 5195) [ClassicSimilarity], result of:
          0.02855804 = score(doc=5195,freq=2.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.22909334 = fieldWeight in 5195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.039162334 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.039162334 = score(doc=5195,freq=12.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.019955821 = product of:
          0.039911643 = sum of:
            0.039911643 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.039911643 = score(doc=5195,freq=2.0), product of:
                0.14736743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208298 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  16. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.04
    0.04346823 = product of:
      0.09780352 = sum of:
        0.004301519 = weight(_text_:in in 5863) [ClassicSimilarity], result of:
          0.004301519 = score(doc=5863,freq=2.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.07514416 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.02884798 = weight(_text_:zu in 5863) [ClassicSimilarity], result of:
          0.02884798 = score(doc=5863,freq=4.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.23141924 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.032300547 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.032300547 = score(doc=5863,freq=16.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.03235348 = product of:
          0.06470696 = sum of:
            0.06470696 = weight(_text_:gesellschaft in 5863) [ClassicSimilarity], result of:
              0.06470696 = score(doc=5863,freq=4.0), product of:
                0.18669544 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.04208298 = queryNorm
                0.346591 = fieldWeight in 5863, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.04
    0.040141422 = product of:
      0.0903182 = sum of:
        0.009733227 = weight(_text_:in in 1767) [ClassicSimilarity], result of:
          0.009733227 = score(doc=1767,freq=16.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.17003182 = fieldWeight in 1767, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.03263776 = weight(_text_:zu in 1767) [ClassicSimilarity], result of:
          0.03263776 = score(doc=1767,freq=8.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.26182097 = fieldWeight in 1767, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0365439 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.0365439 = score(doc=1767,freq=32.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.011403326 = product of:
          0.022806652 = sum of:
            0.022806652 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.022806652 = score(doc=1767,freq=2.0), product of:
                0.14736743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04208298 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.44444445 = coord(4/9)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  18. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.04
    0.038081337 = product of:
      0.17136602 = sum of:
        0.022839935 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.022839935 = score(doc=4157,freq=2.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.14852609 = sum of:
          0.091509454 = weight(_text_:gesellschaft in 4157) [ClassicSimilarity], result of:
            0.091509454 = score(doc=4157,freq=2.0), product of:
              0.18669544 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.04208298 = queryNorm
              0.49015367 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.057016633 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.057016633 = score(doc=4157,freq=2.0), product of:
              0.14736743 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04208298 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.22222222 = coord(2/9)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  19. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.04
    0.036851943 = product of:
      0.11055582 = sum of:
        0.010323646 = weight(_text_:in in 4) [ClassicSimilarity], result of:
          0.010323646 = score(doc=4,freq=8.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.18034597 = fieldWeight in 4, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.048956644 = weight(_text_:zu in 4) [ClassicSimilarity], result of:
          0.048956644 = score(doc=4,freq=8.0), product of:
            0.12465679 = queryWeight, product of:
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.04208298 = queryNorm
            0.39273146 = fieldWeight in 4, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.9621663 = idf(docFreq=6214, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.05127553 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.05127553 = score(doc=4,freq=28.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
      0.33333334 = coord(3/9)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  20. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.03
    0.0348497 = product of:
      0.104549095 = sum of:
        0.008516574 = weight(_text_:in in 3497) [ClassicSimilarity], result of:
          0.008516574 = score(doc=3497,freq=4.0), product of:
            0.057243563 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.04208298 = queryNorm
            0.14877784 = fieldWeight in 3497, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.03197591 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.03197591 = score(doc=3497,freq=8.0), product of:
            0.09327133 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04208298 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.06405661 = product of:
          0.12811323 = sum of:
            0.12811323 = weight(_text_:gesellschaft in 3497) [ClassicSimilarity], result of:
              0.12811323 = score(doc=3497,freq=8.0), product of:
                0.18669544 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.04208298 = queryNorm
                0.6862151 = fieldWeight in 3497, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.5 = coord(1/2)
      0.33333334 = coord(3/9)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber

Languages

Types

  • a 299
  • el 38
  • x 31
  • m 15
  • s 8
  • d 2
  • h 1
  • p 1
  • r 1
  • More… Less…