Search (195 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.11
    0.10877427 = product of:
      0.2486269 = sum of:
        0.055055957 = weight(_text_:allgemeines in 2543) [ClassicSimilarity], result of:
          0.055055957 = score(doc=2543,freq=4.0), product of:
            0.15439615 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027061297 = queryNorm
            0.35658893 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.044777777 = weight(_text_:buch in 2543) [ClassicSimilarity], result of:
          0.044777777 = score(doc=2543,freq=6.0), product of:
            0.12581798 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027061297 = queryNorm
            0.35589328 = fieldWeight in 2543, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.021182084 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.021182084 = score(doc=2543,freq=26.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.016804086 = product of:
          0.033608172 = sum of:
            0.033608172 = weight(_text_:bibliothekswesen in 2543) [ClassicSimilarity], result of:
              0.033608172 = score(doc=2543,freq=4.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.2786045 = fieldWeight in 2543, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2543)
          0.5 = coord(1/2)
        0.048537377 = weight(_text_:informationswissenschaft in 2543) [ClassicSimilarity], result of:
          0.048537377 = score(doc=2543,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 2543, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.048537377 = weight(_text_:informationswissenschaft in 2543) [ClassicSimilarity], result of:
          0.048537377 = score(doc=2543,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 2543, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.01373226 = product of:
          0.02746452 = sum of:
            0.02746452 = weight(_text_:grundlagen in 2543) [ClassicSimilarity], result of:
              0.02746452 = score(doc=2543,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.21178451 = fieldWeight in 2543, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2543)
          0.5 = coord(1/2)
      0.4375 = coord(7/16)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  2. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.05
    0.050665807 = product of:
      0.16213058 = sum of:
        0.024222637 = weight(_text_:und in 4031) [ClassicSimilarity], result of:
          0.024222637 = score(doc=4031,freq=34.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.40386027 = fieldWeight in 4031, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.03432111 = weight(_text_:informationswissenschaft in 4031) [ClassicSimilarity], result of:
          0.03432111 = score(doc=4031,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.28154406 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.03432111 = weight(_text_:informationswissenschaft in 4031) [ClassicSimilarity], result of:
          0.03432111 = score(doc=4031,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.28154406 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.01373226 = product of:
          0.02746452 = sum of:
            0.02746452 = weight(_text_:grundlagen in 4031) [ClassicSimilarity], result of:
              0.02746452 = score(doc=4031,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.21178451 = fieldWeight in 4031, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
        0.05553346 = weight(_text_:theorie in 4031) [ClassicSimilarity], result of:
          0.05553346 = score(doc=4031,freq=6.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.39633816 = fieldWeight in 4031, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.3125 = coord(5/16)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  3. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.05
    0.048257627 = product of:
      0.25737402 = sum of:
        0.014687132 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.014687132 = score(doc=5151,freq=2.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.24487628 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.12134344 = weight(_text_:informationswissenschaft in 5151) [ClassicSimilarity], result of:
          0.12134344 = score(doc=5151,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.99540854 = fieldWeight in 5151, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.12134344 = weight(_text_:informationswissenschaft in 5151) [ClassicSimilarity], result of:
          0.12134344 = score(doc=5151,freq=8.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.99540854 = fieldWeight in 5151, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
      0.1875 = coord(3/16)
    
    Series
    Schriften zur Informationswissenschaft; Bd.34
    Source
    Knowledge Management und Kommunikationssysteme: Proceedings des 6. Internationalen Symposiums für Informationswissenschaft (ISI '98) Prag, 3.-7. November 1998 / Hochschulverband für Informationswissenschaft (HI) e.V. Konstanz ; Fachrichtung Informationswissenschaft der Universität des Saarlandes, Saarbrücken. Hrsg.: Harald H. Zimmermann u. Volker Schramm
  4. Lepsky, K.: Automatische Indexierung (2013) 0.04
    0.044111207 = product of:
      0.17644483 = sum of:
        0.02077074 = weight(_text_:und in 720) [ClassicSimilarity], result of:
          0.02077074 = score(doc=720,freq=4.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34630734 = fieldWeight in 720, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=720)
        0.06067172 = weight(_text_:informationswissenschaft in 720) [ClassicSimilarity], result of:
          0.06067172 = score(doc=720,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.49770427 = fieldWeight in 720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=720)
        0.06067172 = weight(_text_:informationswissenschaft in 720) [ClassicSimilarity], result of:
          0.06067172 = score(doc=720,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.49770427 = fieldWeight in 720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=720)
        0.034330647 = product of:
          0.068661295 = sum of:
            0.068661295 = weight(_text_:grundlagen in 720) [ClassicSimilarity], result of:
              0.068661295 = score(doc=720,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.52946126 = fieldWeight in 720, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.078125 = fieldNorm(doc=720)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  5. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.04
    0.041979868 = product of:
      0.13433558 = sum of:
        0.016420713 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.016420713 = score(doc=8,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.03033586 = weight(_text_:informationswissenschaft in 8) [ClassicSimilarity], result of:
          0.03033586 = score(doc=8,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.24885213 = fieldWeight in 8, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.03033586 = weight(_text_:informationswissenschaft in 8) [ClassicSimilarity], result of:
          0.03033586 = score(doc=8,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.24885213 = fieldWeight in 8, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.017165324 = product of:
          0.034330647 = sum of:
            0.034330647 = weight(_text_:grundlagen in 8) [ClassicSimilarity], result of:
              0.034330647 = score(doc=8,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.26473063 = fieldWeight in 8, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=8)
          0.5 = coord(1/2)
        0.040077824 = weight(_text_:theorie in 8) [ClassicSimilarity], result of:
          0.040077824 = score(doc=8,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.28603244 = fieldWeight in 8, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
      0.3125 = coord(5/16)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  6. Salton, G.: Future prospects for text-based information retrieval (1990) 0.04
    0.041915853 = product of:
      0.22355121 = sum of:
        0.017624559 = weight(_text_:und in 2327) [ClassicSimilarity], result of:
          0.017624559 = score(doc=2327,freq=2.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.29385152 = fieldWeight in 2327, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2327)
        0.10296333 = weight(_text_:informationswissenschaft in 2327) [ClassicSimilarity], result of:
          0.10296333 = score(doc=2327,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.84463215 = fieldWeight in 2327, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=2327)
        0.10296333 = weight(_text_:informationswissenschaft in 2327) [ClassicSimilarity], result of:
          0.10296333 = score(doc=2327,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.84463215 = fieldWeight in 2327, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=2327)
      0.1875 = coord(3/16)
    
    Series
    Konstanzer Schriften zur Informationswissenschaft; Bd.1
    Source
    Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen: Proc. des 1. Int. Symposiums für Informationswissenschaft, Universität Konstanz, 17.-19.10.1990. Hrsg.: J. Herget u. R. Kuhlen
  7. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.04
    0.040402837 = product of:
      0.16161135 = sum of:
        0.020561984 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.020561984 = score(doc=3493,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.042470206 = weight(_text_:informationswissenschaft in 3493) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3493,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.042470206 = weight(_text_:informationswissenschaft in 3493) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3493,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.056108955 = weight(_text_:theorie in 3493) [ClassicSimilarity], result of:
          0.056108955 = score(doc=3493,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.4004454 = fieldWeight in 3493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
      0.25 = coord(4/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  8. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.04
    0.040402837 = product of:
      0.16161135 = sum of:
        0.020561984 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.020561984 = score(doc=3495,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.042470206 = weight(_text_:informationswissenschaft in 3495) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3495,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.042470206 = weight(_text_:informationswissenschaft in 3495) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3495,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.056108955 = weight(_text_:theorie in 3495) [ClassicSimilarity], result of:
          0.056108955 = score(doc=3495,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.4004454 = fieldWeight in 3495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
      0.25 = coord(4/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  9. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.04
    0.040402837 = product of:
      0.16161135 = sum of:
        0.020561984 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.020561984 = score(doc=3497,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.042470206 = weight(_text_:informationswissenschaft in 3497) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3497,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.042470206 = weight(_text_:informationswissenschaft in 3497) [ClassicSimilarity], result of:
          0.042470206 = score(doc=3497,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 3497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.056108955 = weight(_text_:theorie in 3497) [ClassicSimilarity], result of:
          0.056108955 = score(doc=3497,freq=2.0), product of:
            0.14011636 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.027061297 = queryNorm
            0.4004454 = fieldWeight in 3497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
      0.25 = coord(4/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  10. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.03
    0.03218085 = product of:
      0.1287234 = sum of:
        0.022989 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.022989 = score(doc=5812,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.020793993 = product of:
          0.041587986 = sum of:
            0.041587986 = weight(_text_:bibliothekswesen in 5812) [ClassicSimilarity], result of:
              0.041587986 = score(doc=5812,freq=2.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.34475547 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
        0.042470206 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.042470206 = score(doc=5812,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.042470206 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.042470206 = score(doc=5812,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.25 = coord(4/16)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  11. Reimer, U.: Verfahren der automatischen Indexierung : benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition, ein Überblick (1992) 0.03
    0.03197569 = product of:
      0.17053701 = sum of:
        0.02492489 = weight(_text_:und in 7858) [ClassicSimilarity], result of:
          0.02492489 = score(doc=7858,freq=4.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.41556883 = fieldWeight in 7858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7858)
        0.07280606 = weight(_text_:informationswissenschaft in 7858) [ClassicSimilarity], result of:
          0.07280606 = score(doc=7858,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.5972451 = fieldWeight in 7858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=7858)
        0.07280606 = weight(_text_:informationswissenschaft in 7858) [ClassicSimilarity], result of:
          0.07280606 = score(doc=7858,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.5972451 = fieldWeight in 7858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=7858)
      0.1875 = coord(3/16)
    
    Series
    Schriften zur Informationswissenschaft; Bd.3
    Source
    Experimentelles und praktisches Information Retrieval: Festschrift für Gerhard Lustig. Hrsg. R. Kuhlen
  12. Lepsky, K.: Automatisches Indexieren (2023) 0.03
    0.031694766 = product of:
      0.12677906 = sum of:
        0.0178072 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.0178072 = score(doc=781,freq=6.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.2968967 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.042470206 = weight(_text_:informationswissenschaft in 781) [ClassicSimilarity], result of:
          0.042470206 = score(doc=781,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.042470206 = weight(_text_:informationswissenschaft in 781) [ClassicSimilarity], result of:
          0.042470206 = score(doc=781,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.348393 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=781)
        0.024031455 = product of:
          0.04806291 = sum of:
            0.04806291 = weight(_text_:grundlagen in 781) [ClassicSimilarity], result of:
              0.04806291 = score(doc=781,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.3706229 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Grün, S.: Bildung von Komposita-Indextermen auf der Basis einer algorithmischen Mehrwortgruppenanalyse mit Lingo (2015) 0.03
    0.027583584 = product of:
      0.11033434 = sum of:
        0.019704856 = weight(_text_:und in 1335) [ClassicSimilarity], result of:
          0.019704856 = score(doc=1335,freq=10.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.328536 = fieldWeight in 1335, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
        0.017823422 = product of:
          0.035646845 = sum of:
            0.035646845 = weight(_text_:bibliothekswesen in 1335) [ClassicSimilarity], result of:
              0.035646845 = score(doc=1335,freq=2.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.2955047 = fieldWeight in 1335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1335)
          0.5 = coord(1/2)
        0.03640303 = weight(_text_:informationswissenschaft in 1335) [ClassicSimilarity], result of:
          0.03640303 = score(doc=1335,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 1335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
        0.03640303 = weight(_text_:informationswissenschaft in 1335) [ClassicSimilarity], result of:
          0.03640303 = score(doc=1335,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 1335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=1335)
      0.25 = coord(4/16)
    
    Abstract
    In der deutschen Sprache lassen sich Begriffe durch Komposita und Mehrwortgruppen ausdrücken. Letztere können dabei aber auch als Kompositum selbst ausgedrückt werden und entsprechend auf den gleichen Begriff verweisen. In der nachfolgenden Studie werden Mehrwortgruppen analysiert, die auch Komposita sein können. Ziel der Untersuchung ist es, diese Wortfolgen über Muster zu identifizieren. Analysiert wurden Daten des Karrieremanagers Placement24 GmbH - in Form von Stellenanzeigen. Die Extraktion von Mehrwortgruppen erfolgte algorithmisch und wurde mit der Open-Source Software Lingo durch geführt. Auf der Basis von Erweiterungen bzw. Anpassungen in Wörterbüchern und den darin getaggten Wörtern wurde drei- bis fünfstelligen Kandidaten analysiert. Aus positiv bewerteten Mehrwortgruppen wurden Komposita gebildet. Diese wurden mit den identifizierten Komposita aus den Stellenanzeigen verglichen. Der Vergleich zeigte, dass ein Großteil der neu generierten Komposita nicht durch eine Kompositaidentifizierung erzeugt wurde.
    Content
    Bachelorarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften, Fachhochschule Köln
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
  14. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.03
    0.025548225 = product of:
      0.1021929 = sum of:
        0.024355855 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.024355855 = score(doc=4283,freq=22.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03033586 = weight(_text_:informationswissenschaft in 4283) [ClassicSimilarity], result of:
          0.03033586 = score(doc=4283,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.24885213 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03033586 = weight(_text_:informationswissenschaft in 4283) [ClassicSimilarity], result of:
          0.03033586 = score(doc=4283,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.24885213 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.017165324 = product of:
          0.034330647 = sum of:
            0.034330647 = weight(_text_:grundlagen in 4283) [ClassicSimilarity], result of:
              0.034330647 = score(doc=4283,freq=2.0), product of:
                0.12968144 = queryWeight, product of:
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.027061297 = queryNorm
                0.26473063 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7921367 = idf(docFreq=996, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  15. Kempf, A.O.: Automatische Indexierung in der sozialwissenschaftlichen Fachinformation : eine Evaluationsstudie zur maschinellen Erschließung für die Datenbank SOLIS (2012) 0.02
    0.023677206 = product of:
      0.12627843 = sum of:
        0.0233151 = weight(_text_:und in 903) [ClassicSimilarity], result of:
          0.0233151 = score(doc=903,freq=14.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.38872904 = fieldWeight in 903, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=903)
        0.051481664 = weight(_text_:informationswissenschaft in 903) [ClassicSimilarity], result of:
          0.051481664 = score(doc=903,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.42231607 = fieldWeight in 903, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=903)
        0.051481664 = weight(_text_:informationswissenschaft in 903) [ClassicSimilarity], result of:
          0.051481664 = score(doc=903,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.42231607 = fieldWeight in 903, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=903)
      0.1875 = coord(3/16)
    
    Abstract
    Automatische Indexierungsverfahren werden mit Zunahme der digitalen Verfügbarkeit von Metadaten und Volltexten mehr und mehr als eine mögliche Antwort auf das Management unstrukturierter Daten diskutiert. In der sozialwissenschaftlichen Fachinformation existiert in diesem Zusammenhang seit einiger Zeit der Vorschlag eines sogenannten Schalenmodells (vgl. Krause, 1996) mit unterschiedlichen Qualitätsstufen bei der inhaltlichen Erschließung. Vor diesem Hintergrund beschreibt die Arbeit zunächst Methoden und Verfahren der inhaltlichen und automatischen Indexierung, bevor vier Testläufe eines automatischen Indexierungssystems (MindServer) zur automatischen Erschließung von Datensätzen der bibliographischen Literaturdatenbank SOLIS mit Deskriptoren des Thesaurus Sozialwissenschaften sowie der Klassifikation Sozialwissenschaften beschrieben und analysiert werden. Es erfolgt eine ausführliche Fehleranalyse mit Beispielen sowie eine abschließende Diskussion, inwieweit die automatische Erschließung in dieser Form für die Randbereiche der Datenbank SOLIS für die Zukunft einen gangbaren Weg darstellt.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät I, Institut für Bibliotheks- und Informationswissenschaft
    Series
    Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft; 329
  16. Lepsky, K.: Automatische Indexierung zur Erschließung deutschsprachiger Dokumente (1999) 0.02
    0.022607654 = product of:
      0.12057416 = sum of:
        0.02349941 = weight(_text_:und in 4656) [ClassicSimilarity], result of:
          0.02349941 = score(doc=4656,freq=8.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.39180204 = fieldWeight in 4656, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.048537377 = weight(_text_:informationswissenschaft in 4656) [ClassicSimilarity], result of:
          0.048537377 = score(doc=4656,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 4656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
        0.048537377 = weight(_text_:informationswissenschaft in 4656) [ClassicSimilarity], result of:
          0.048537377 = score(doc=4656,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 4656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4656)
      0.1875 = coord(3/16)
    
    Abstract
    Der Beitrag beschäftigt sich mit der Anwendung eines Verfahrens zur automatischen Indexierung deutschsprachiger Texte in Bibliotheken. Die Arbeitsweise des Verfahrens und seine Entwicklung innerhalb der von der Deutschen Forschungsgemeinschaft geförderte und an der ULB Düsseldorf gemeinsam mit der Fachrichtung Informationswissenschaft der Universität des Saarlandes durchgeführten Projekte MILOS I, MILOS II und KASCADE werden geschildert. Die Ergebnisse von Retrievaltests belegen die Tauglichkeit des Verfahrens für den Einsatz in Bibliotheken. Aufsetzend auf diesen Ergebnissen werden Perspektiven für die bibliothekarische Sacherschließung im Hinblick auf den Einsatz von automatischen Verfahren entworfen
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.325-330
  17. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.02
    0.022017345 = product of:
      0.117425844 = sum of:
        0.020351088 = weight(_text_:und in 2653) [ClassicSimilarity], result of:
          0.020351088 = score(doc=2653,freq=6.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.33931053 = fieldWeight in 2653, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.048537377 = weight(_text_:informationswissenschaft in 2653) [ClassicSimilarity], result of:
          0.048537377 = score(doc=2653,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 2653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
        0.048537377 = weight(_text_:informationswissenschaft in 2653) [ClassicSimilarity], result of:
          0.048537377 = score(doc=2653,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.3981634 = fieldWeight in 2653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.1875 = coord(3/16)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  18. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.02
    0.021506887 = product of:
      0.08602755 = sum of:
        0.025607888 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.025607888 = score(doc=6078,freq=38.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.011882282 = product of:
          0.023764564 = sum of:
            0.023764564 = weight(_text_:bibliothekswesen in 6078) [ClassicSimilarity], result of:
              0.023764564 = score(doc=6078,freq=2.0), product of:
                0.12063039 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027061297 = queryNorm
                0.19700313 = fieldWeight in 6078, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6078)
          0.5 = coord(1/2)
        0.024268689 = weight(_text_:informationswissenschaft in 6078) [ClassicSimilarity], result of:
          0.024268689 = score(doc=6078,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.1990817 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.024268689 = weight(_text_:informationswissenschaft in 6078) [ClassicSimilarity], result of:
          0.024268689 = score(doc=6078,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.1990817 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.25 = coord(4/16)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  19. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.019982534 = product of:
      0.106573515 = sum of:
        0.02077074 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.02077074 = score(doc=5863,freq=16.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.04290139 = weight(_text_:informationswissenschaft in 5863) [ClassicSimilarity], result of:
          0.04290139 = score(doc=5863,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.35193008 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.04290139 = weight(_text_:informationswissenschaft in 5863) [ClassicSimilarity], result of:
          0.04290139 = score(doc=5863,freq=4.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.35193008 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.1875 = coord(3/16)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.02
    0.019833487 = product of:
      0.10577859 = sum of:
        0.03297253 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.03297253 = score(doc=4,freq=28.0), product of:
            0.059977766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027061297 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.03640303 = weight(_text_:informationswissenschaft in 4) [ClassicSimilarity], result of:
          0.03640303 = score(doc=4,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.03640303 = weight(_text_:informationswissenschaft in 4) [ClassicSimilarity], result of:
          0.03640303 = score(doc=4,freq=2.0), product of:
            0.12190316 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027061297 = queryNorm
            0.29862255 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
      0.1875 = coord(3/16)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
    Series
    Schriften zur Informationswissenschaft; Bd.3

Languages

  • d 164
  • e 27
  • a 1
  • m 1
  • nl 1
  • ru 1
  • sp 1
  • More… Less…

Types

  • a 142
  • x 31
  • el 21
  • m 12
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…