Search (221 results, page 1 of 12)

  • × theme_ss:"Automatisches Indexieren"
  1. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.03
    0.031625062 = product of:
      0.15812531 = sum of:
        0.026156198 = weight(_text_:informatik in 4031) [ClassicSimilarity], result of:
          0.026156198 = score(doc=4031,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.2254996 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.034802955 = weight(_text_:einzelne in 4031) [ClassicSimilarity], result of:
          0.034802955 = score(doc=4031,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.04428894 = weight(_text_:anwendungen in 4031) [ClassicSimilarity], result of:
          0.04428894 = score(doc=4031,freq=4.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.34895033 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.018074257 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.018074257 = score(doc=4031,freq=26.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.034802955 = weight(_text_:einzelne in 4031) [ClassicSimilarity], result of:
          0.034802955 = score(doc=4031,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.2 = coord(5/25)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  2. Hüther, H.: Zur Aufwandsabschätzung beim Aufbau eines automatischen Indexierungssystems (1985) 0.03
    0.027637584 = product of:
      0.23031321 = sum of:
        0.01754514 = weight(_text_:der in 473) [ClassicSimilarity], result of:
          0.01754514 = score(doc=473,freq=2.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34551817 = fieldWeight in 473, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=473)
        0.10638404 = weight(_text_:programme in 473) [ClassicSimilarity], result of:
          0.10638404 = score(doc=473,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.85080636 = fieldWeight in 473, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.109375 = fieldNorm(doc=473)
        0.10638404 = weight(_text_:programme in 473) [ClassicSimilarity], result of:
          0.10638404 = score(doc=473,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.85080636 = fieldWeight in 473, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.109375 = fieldNorm(doc=473)
      0.12 = coord(3/25)
    
    Source
    Deutscher Dokumentartag 1984, Darmstadt, 9.-12.10.1984: Perspektiven der Fachinformation: Programme - Praxis - Prognosen. Bearb.: H. Strohl-Goebel
  3. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.02
    0.0246325 = product of:
      0.15395314 = sum of:
        0.020051587 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.020051587 = score(doc=401,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.060790878 = weight(_text_:programme in 401) [ClassicSimilarity], result of:
          0.060790878 = score(doc=401,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.48617506 = fieldWeight in 401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.060790878 = weight(_text_:programme in 401) [ClassicSimilarity], result of:
          0.060790878 = score(doc=401,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.48617506 = fieldWeight in 401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.012319785 = product of:
          0.02463957 = sum of:
            0.02463957 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.02463957 = score(doc=401,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.16 = coord(4/25)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
  4. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.02
    0.019355921 = product of:
      0.12097451 = sum of:
        0.034802955 = weight(_text_:einzelne in 2543) [ClassicSimilarity], result of:
          0.034802955 = score(doc=2543,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.03131701 = weight(_text_:anwendungen in 2543) [ClassicSimilarity], result of:
          0.03131701 = score(doc=2543,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.24674514 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.020051587 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.020051587 = score(doc=2543,freq=32.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.034802955 = weight(_text_:einzelne in 2543) [ClassicSimilarity], result of:
          0.034802955 = score(doc=2543,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.16 = coord(4/25)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
  5. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.019244364 = product of:
      0.1603697 = sum of:
        0.02126792 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.02126792 = score(doc=2051,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.120622106 = weight(_text_:datenverarbeitung in 2051) [ClassicSimilarity], result of:
          0.120622106 = score(doc=2051,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.83875 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.018479677 = product of:
          0.036959354 = sum of:
            0.036959354 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.036959354 = score(doc=2051,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.12 = coord(3/25)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Series
    Linguistische Datenverarbeitung; Bd.5
  6. Salton, G.; Yang, C.S.: On the specification of term values in automatic indexing (1973) 0.02
    0.017876832 = product of:
      0.2234604 = sum of:
        0.20688492 = weight(_text_:351 in 5476) [ClassicSimilarity], result of:
          0.20688492 = score(doc=5476,freq=2.0), product of:
            0.16310826 = queryWeight, product of:
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.022732547 = queryNorm
            1.2683902 = fieldWeight in 5476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.125 = fieldNorm(doc=5476)
        0.01657549 = product of:
          0.049726464 = sum of:
            0.049726464 = weight(_text_:29 in 5476) [ClassicSimilarity], result of:
              0.049726464 = score(doc=5476,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.6218451 = fieldWeight in 5476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5476)
          0.33333334 = coord(1/3)
      0.08 = coord(2/25)
    
    Source
    Journal of documentation. 29(1973), S.351-372
  7. Alexander, M.: Retrieving digital data with fuzzy matching (1997) 0.01
    0.013755406 = product of:
      0.17194258 = sum of:
        0.08597129 = weight(_text_:programme in 151) [ClassicSimilarity], result of:
          0.08597129 = score(doc=151,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6875554 = fieldWeight in 151, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0625 = fieldNorm(doc=151)
        0.08597129 = weight(_text_:programme in 151) [ClassicSimilarity], result of:
          0.08597129 = score(doc=151,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6875554 = fieldWeight in 151, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0625 = fieldNorm(doc=151)
      0.08 = coord(2/25)
    
    Abstract
    In 1993 the British Library established a programme of activities entitled Initiatives for Access (IFA) to identify and develop computer applications based on the new technologies emerging in the aereas of digital and network service. Discusses the problem of the effective retrieval of digital data after its capture focusing on the product Excalibur EFS which looks at the way information is sorted at its fundamental level and identifies patterns in numbers. Looks at the benefits of Excalibur and outlines other experiments in progress as part of the IFA programme
  8. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.01
    0.012122262 = product of:
      0.10101885 = sum of:
        0.04350369 = weight(_text_:einzelne in 2432) [ClassicSimilarity], result of:
          0.04350369 = score(doc=2432,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.014011473 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.014011473 = score(doc=2432,freq=10.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.04350369 = weight(_text_:einzelne in 2432) [ClassicSimilarity], result of:
          0.04350369 = score(doc=2432,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.12 = coord(3/25)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  9. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.01
    0.011339446 = product of:
      0.09449538 = sum of:
        0.05480477 = weight(_text_:anwendungen in 2571) [ClassicSimilarity], result of:
          0.05480477 = score(doc=2571,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.431804 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
        0.012406287 = weight(_text_:der in 2571) [ClassicSimilarity], result of:
          0.012406287 = score(doc=2571,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.24431825 = fieldWeight in 2571, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
        0.027284324 = weight(_text_:t in 2571) [ClassicSimilarity], result of:
          0.027284324 = score(doc=2571,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.30467308 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
      0.12 = coord(3/25)
    
    Abstract
    In diesem Aufsatz beschreiben wir ein System zur Analyse von Kurzartikeln. Das System arbeitet halbautomatisch. Das heißt, zunächst wird der Artikel vom System analysiert und dann dem benutzer zur Nachberarbeitung vorgelegt. Die so gewonnene Information wird in einem Datenbankeintrag abgelegt. Über die Datenbank - in dBase IV implementiert - sind dann Abfragen und Zugriffe auf die Originaltexte effizient möglich. Der Kern dieses Aufsatzes betrifft die halbautomatische Analyse. Wir beschreiben unser Verfahren für parametrisiertes Pattern Matching sowie linguistische Heuristiken zur Ermittlung von Nominalphrasen und Präpositionalphrasen. Das System wurde für den praktischen Einsatz im Bonner Büro des 'Forums InformatikerInnen Für Frieden und gesellschaftliche Verantwortung e.V. (FIFF)' entwickelt
    Source
    Datenanalyse, Klassifikation und Informationsverarbeitung: Methoden und Anwendungen in verschiedenen Fachgebieten. Hrsg.: H. Goebl u. M. Schader
  10. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.01
    0.009459334 = product of:
      0.11824168 = sum of:
        0.017723266 = weight(_text_:der in 4040) [ClassicSimilarity], result of:
          0.017723266 = score(doc=4040,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34902605 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.10051842 = weight(_text_:datenverarbeitung in 4040) [ClassicSimilarity], result of:
          0.10051842 = score(doc=4040,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.69895834 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.08 = coord(2/25)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Series
    Linguistische Datenverarbeitung; Bd.5
  11. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.01
    0.009217546 = product of:
      0.076812886 = sum of:
        0.023620868 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.023620868 = score(doc=494,freq=58.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.02659601 = weight(_text_:programme in 494) [ClassicSimilarity], result of:
          0.02659601 = score(doc=494,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21270159 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.02659601 = weight(_text_:programme in 494) [ClassicSimilarity], result of:
          0.02659601 = score(doc=494,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21270159 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.12 = coord(3/25)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  12. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.01
    0.009131965 = product of:
      0.07609971 = sum of:
        0.030452587 = weight(_text_:einzelne in 6077) [ClassicSimilarity], result of:
          0.030452587 = score(doc=6077,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.22760123 = fieldWeight in 6077, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.015194537 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.015194537 = score(doc=6077,freq=24.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.030452587 = weight(_text_:einzelne in 6077) [ClassicSimilarity], result of:
          0.030452587 = score(doc=6077,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.22760123 = fieldWeight in 6077, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.12 = coord(3/25)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
  13. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.01
    0.008555239 = product of:
      0.10694049 = sum of:
        0.026525758 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.026525758 = score(doc=4891,freq=14.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.080414735 = weight(_text_:datenverarbeitung in 4891) [ClassicSimilarity], result of:
          0.080414735 = score(doc=4891,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.55916667 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.08 = coord(2/25)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  14. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.01
    0.007943463 = product of:
      0.066195525 = sum of:
        0.03269525 = weight(_text_:informatik in 128) [ClassicSimilarity], result of:
          0.03269525 = score(doc=128,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.2818745 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.014011473 = weight(_text_:der in 128) [ClassicSimilarity], result of:
          0.014011473 = score(doc=128,freq=10.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.27592933 = fieldWeight in 128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.019488804 = weight(_text_:t in 128) [ClassicSimilarity], result of:
          0.019488804 = score(doc=128,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.21762364 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.12 = coord(3/25)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
    Field
    Informatik
  15. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.01
    0.007848335 = product of:
      0.098104194 = sum of:
        0.027741302 = weight(_text_:der in 2562) [ClassicSimilarity], result of:
          0.027741302 = score(doc=2562,freq=20.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.5463122 = fieldWeight in 2562, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.070362896 = weight(_text_:datenverarbeitung in 2562) [ClassicSimilarity], result of:
          0.070362896 = score(doc=2562,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.48927084 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
      0.08 = coord(2/25)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  16. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.01
    0.0070326426 = product of:
      0.08790804 = sum of:
        0.01754514 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.01754514 = score(doc=953,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.070362896 = weight(_text_:datenverarbeitung in 953) [ClassicSimilarity], result of:
          0.070362896 = score(doc=953,freq=2.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.48927084 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
      0.08 = coord(2/25)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Series
    Linguistische Datenverarbeitung; Bd.5
  17. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.01
    0.00680419 = product of:
      0.08505238 = sum of:
        0.06263402 = weight(_text_:anwendungen in 1407) [ClassicSimilarity], result of:
          0.06263402 = score(doc=1407,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.49349028 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.022418357 = weight(_text_:der in 1407) [ClassicSimilarity], result of:
          0.022418357 = score(doc=1407,freq=10.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.44148692 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.08 = coord(2/25)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
  18. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.0063999365 = product of:
      0.07999921 = sum of:
        0.06263402 = weight(_text_:anwendungen in 7692) [ClassicSimilarity], result of:
          0.06263402 = score(doc=7692,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.49349028 = fieldWeight in 7692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
        0.017365186 = weight(_text_:der in 7692) [ClassicSimilarity], result of:
          0.017365186 = score(doc=7692,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 7692, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.08 = coord(2/25)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  19. Mohrenweis, T.: Konzepte der automatischen Indexierung und vergleichende Analyse der Systeme STAIRS, STEINADLER/CONDOR, CTX und PASSAT/GOLEM (1984) 0.01
    0.0063504972 = product of:
      0.07938122 = sum of:
        0.024812574 = weight(_text_:der in 5171) [ClassicSimilarity], result of:
          0.024812574 = score(doc=5171,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.4886365 = fieldWeight in 5171, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=5171)
        0.05456865 = weight(_text_:t in 5171) [ClassicSimilarity], result of:
          0.05456865 = score(doc=5171,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.60934615 = fieldWeight in 5171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.109375 = fieldNorm(doc=5171)
      0.08 = coord(2/25)
    
  20. Greiner-Petter, A.; Schubotz, M.; Cohl, H.S.; Gipp, B.: Semantic preserving bijective mappings for expressions involving special functions between computer algebra systems and document preparation systems (2019) 0.01
    0.006203396 = product of:
      0.1550849 = sum of:
        0.1550849 = sum of:
          0.1427651 = weight(_text_:latex in 5499) [ClassicSimilarity], result of:
            0.1427651 = score(doc=5499,freq=6.0), product of:
              0.20590754 = queryWeight, product of:
                9.05783 = idf(docFreq=13, maxDocs=44218)
                0.022732547 = queryNorm
              0.69334567 = fieldWeight in 5499, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                9.05783 = idf(docFreq=13, maxDocs=44218)
                0.03125 = fieldNorm(doc=5499)
          0.012319785 = weight(_text_:22 in 5499) [ClassicSimilarity], result of:
            0.012319785 = score(doc=5499,freq=2.0), product of:
              0.079605505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022732547 = queryNorm
              0.15476047 = fieldWeight in 5499, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5499)
      0.04 = coord(1/25)
    
    Abstract
    Purpose Modern mathematicians and scientists of math-related disciplines often use Document Preparation Systems (DPS) to write and Computer Algebra Systems (CAS) to calculate mathematical expressions. Usually, they translate the expressions manually between DPS and CAS. This process is time-consuming and error-prone. The purpose of this paper is to automate this translation. This paper uses Maple and Mathematica as the CAS, and LaTeX as the DPS. Design/methodology/approach Bruce Miller at the National Institute of Standards and Technology (NIST) developed a collection of special LaTeX macros that create links from mathematical symbols to their definitions in the NIST Digital Library of Mathematical Functions (DLMF). The authors are using these macros to perform rule-based translations between the formulae in the DLMF and CAS. Moreover, the authors develop software to ease the creation of new rules and to discover inconsistencies. Findings The authors created 396 mappings and translated 58.8 percent of DLMF formulae (2,405 expressions) successfully between Maple and DLMF. For a significant percentage, the special function definitions in Maple and the DLMF were different. An atomic symbol in one system maps to a composite expression in the other system. The translator was also successfully used for automatic verification of mathematical online compendia and CAS. The evaluation techniques discovered two errors in the DLMF and one defect in Maple. Originality/value This paper introduces the first translation tool for special functions between LaTeX and CAS. The approach improves error-prone manual translations and can be used to verify mathematical online compendia and CAS.
    Date
    20. 1.2015 18:30:22

Languages

Types

  • a 172
  • x 28
  • el 24
  • m 8
  • s 6
  • d 2
  • p 2
  • r 1
  • More… Less…