Search (351 results, page 1 of 18)

  • × theme_ss:"Automatisches Indexieren"
  1. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.06
    0.060673416 = product of:
      0.19415493 = sum of:
        0.045769252 = weight(_text_:einzelne in 2543) [ClassicSimilarity], result of:
          0.045769252 = score(doc=2543,freq=2.0), product of:
            0.17595729 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.029895496 = queryNorm
            0.26011568 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.041184895 = weight(_text_:anwendungen in 2543) [ClassicSimilarity], result of:
          0.041184895 = score(doc=2543,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.24674514 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.026369777 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.026369777 = score(doc=2543,freq=32.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.07507295 = weight(_text_:wirtschaftsinformatik in 2543) [ClassicSimilarity], result of:
          0.07507295 = score(doc=2543,freq=2.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.33313584 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0057580643 = weight(_text_:information in 2543) [ClassicSimilarity], result of:
          0.0057580643 = score(doc=2543,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.10971737 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.3125 = coord(5/16)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Series
    Materialien zur Information und Dokumentation; Bd.13
  2. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.05
    0.05404786 = product of:
      0.17295316 = sum of:
        0.03439793 = weight(_text_:informatik in 4031) [ClassicSimilarity], result of:
          0.03439793 = score(doc=4031,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.045769252 = weight(_text_:einzelne in 4031) [ClassicSimilarity], result of:
          0.045769252 = score(doc=4031,freq=2.0), product of:
            0.17595729 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.029895496 = queryNorm
            0.26011568 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.058244236 = weight(_text_:anwendungen in 4031) [ClassicSimilarity], result of:
          0.058244236 = score(doc=4031,freq=4.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.34895033 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.023769395 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.023769395 = score(doc=4031,freq=26.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.010772353 = weight(_text_:information in 4031) [ClassicSimilarity], result of:
          0.010772353 = score(doc=4031,freq=14.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.20526241 = fieldWeight in 4031, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.3125 = coord(5/16)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  3. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.05
    0.04728028 = product of:
      0.18912113 = sum of:
        0.03439793 = weight(_text_:informatik in 861) [ClassicSimilarity], result of:
          0.03439793 = score(doc=861,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.024666667 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.024666667 = score(doc=861,freq=28.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.10616919 = weight(_text_:wirtschaftsinformatik in 861) [ClassicSimilarity], result of:
          0.10616919 = score(doc=861,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.47112525 = fieldWeight in 861, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02388733 = product of:
          0.04777466 = sum of:
            0.04777466 = weight(_text_:wissensmanagement in 861) [ClassicSimilarity], result of:
              0.04777466 = score(doc=861,freq=2.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.26575315 = fieldWeight in 861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  4. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.04
    0.03954406 = product of:
      0.21090166 = sum of:
        0.027969373 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.027969373 = score(doc=2051,freq=4.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.15862973 = weight(_text_:datenverarbeitung in 2051) [ClassicSimilarity], result of:
          0.15862973 = score(doc=2051,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.83875 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.02430256 = product of:
          0.04860512 = sum of:
            0.04860512 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.04860512 = score(doc=2051,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Series
    Linguistische Datenverarbeitung; Bd.5
  5. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.03
    0.028723158 = product of:
      0.11489263 = sum of:
        0.024666667 = weight(_text_:der in 1767) [ClassicSimilarity], result of:
          0.024666667 = score(doc=1767,freq=28.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.36937445 = fieldWeight in 1767, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.07507295 = weight(_text_:wirtschaftsinformatik in 1767) [ClassicSimilarity], result of:
          0.07507295 = score(doc=1767,freq=2.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.33313584 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0070521603 = weight(_text_:information in 1767) [ClassicSimilarity], result of:
          0.0070521603 = score(doc=1767,freq=6.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.1343758 = fieldWeight in 1767, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008100854 = product of:
          0.016201708 = sum of:
            0.016201708 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.016201708 = score(doc=1767,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  6. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.03
    0.025935339 = product of:
      0.103741355 = sum of:
        0.042997412 = weight(_text_:informatik in 4283) [ClassicSimilarity], result of:
          0.042997412 = score(doc=4283,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2818745 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.029711746 = weight(_text_:der in 4283) [ClassicSimilarity], result of:
          0.029711746 = score(doc=4283,freq=26.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.4449227 = fieldWeight in 4283, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.0071975808 = weight(_text_:information in 4283) [ClassicSimilarity], result of:
          0.0071975808 = score(doc=4283,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13714671 = fieldWeight in 4283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.023834616 = product of:
          0.047669232 = sum of:
            0.047669232 = weight(_text_:engineering in 4283) [ClassicSimilarity], result of:
              0.047669232 = score(doc=4283,freq=2.0), product of:
                0.16061439 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.029895496 = queryNorm
                0.29679304 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Footnote
    Masterarbeit im Studiengang Information Engineering zur Erlagung des Grades eines Master of Science in Information science,
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  7. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.024183834 = product of:
      0.096735336 = sum of:
        0.016315468 = weight(_text_:der in 5671) [ClassicSimilarity], result of:
          0.016315468 = score(doc=5671,freq=4.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.24431825 = fieldWeight in 5671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.05911813 = product of:
          0.11823626 = sum of:
            0.11823626 = weight(_text_:wissensmanagement in 5671) [ClassicSimilarity], result of:
              0.11823626 = score(doc=5671,freq=4.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.65770555 = fieldWeight in 5671, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
        0.0071252417 = weight(_text_:information in 5671) [ClassicSimilarity], result of:
          0.0071252417 = score(doc=5671,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13576832 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.014176494 = product of:
          0.028352989 = sum of:
            0.028352989 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.028352989 = score(doc=5671,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  8. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.02
    0.023012402 = product of:
      0.12273281 = sum of:
        0.023073554 = weight(_text_:der in 953) [ClassicSimilarity], result of:
          0.023073554 = score(doc=953,freq=8.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34551817 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.09253401 = weight(_text_:datenverarbeitung in 953) [ClassicSimilarity], result of:
          0.09253401 = score(doc=953,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.48927084 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.0071252417 = weight(_text_:information in 953) [ClassicSimilarity], result of:
          0.0071252417 = score(doc=953,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13576832 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
      0.1875 = coord(3/16)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Series
    Linguistische Datenverarbeitung; Bd.5
  9. Tzeras, K.: Zur Aufwandsabschätzung bei der Entwicklung eines Indexierungswörterbuches (1991) 0.02
    0.01946327 = product of:
      0.10380411 = sum of:
        0.060196377 = weight(_text_:informatik in 792) [ClassicSimilarity], result of:
          0.060196377 = score(doc=792,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.3946243 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.036482494 = weight(_text_:der in 792) [ClassicSimilarity], result of:
          0.036482494 = score(doc=792,freq=20.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.5463122 = fieldWeight in 792, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
        0.0071252417 = weight(_text_:information in 792) [ClassicSimilarity], result of:
          0.0071252417 = score(doc=792,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13576832 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
      0.1875 = coord(3/16)
    
    Abstract
    Für die automatische Indexierung mit einem vorgegebenen Deskriptorensystem wird ein Wörterbuch benötigt, das möglichst viele Fachausdrücke des Anwendungsgebietes durch Relationen mit Deskriptoren verbindet. Werden die in einem solchen Indexierungswörterbuch erfaßten Relationen aus der Verarbeitung von Texten gewonnen, so ergibt sich eine Beziehung zwischen der Anzahl der Texte und der Größe und Leistungsfähigkeit des Wörterbuches. Die beschreibung derartiger Beziehungen ist besonders vor Beginn der Entwicklung eines automatischen Indexierungssystems von großem Interesse. H. Hüther hat sich in mehreren Arbeiten mit diesem Problem beschäftigt und verschiedene Schätzverfahren theoretische hergeleitet. Für eines der von ihm vorgeschlagenen Schätzverfahren zur Abschätzung der Größe eines Indexierungswörterbuches in Abhängigkeit von der Anzahl der zugrundeliegenden Texte werden im vorliegenden beitrag die Leistungsfähigkeit und die Anwendbarkeit untersucht
    Series
    Informatik-Fachberichte; 289
    Source
    Information retrieval: GI/GMD-Workshop, Darmstadt, 23.-24.6.1991: Proceedings. Ed.: N. Fuhr
  10. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.02
    0.019437408 = product of:
      0.15549926 = sum of:
        0.02330781 = weight(_text_:der in 4040) [ClassicSimilarity], result of:
          0.02330781 = score(doc=4040,freq=4.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34902605 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.13219145 = weight(_text_:datenverarbeitung in 4040) [ClassicSimilarity], result of:
          0.13219145 = score(doc=4040,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.69895834 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.125 = coord(2/16)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Series
    Linguistische Datenverarbeitung; Bd.5
  11. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.02
    0.017908927 = product of:
      0.095514275 = sum of:
        0.072073564 = weight(_text_:anwendungen in 2571) [ClassicSimilarity], result of:
          0.072073564 = score(doc=2571,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.431804 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
        0.016315468 = weight(_text_:der in 2571) [ClassicSimilarity], result of:
          0.016315468 = score(doc=2571,freq=4.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.24431825 = fieldWeight in 2571, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
        0.0071252417 = weight(_text_:information in 2571) [ClassicSimilarity], result of:
          0.0071252417 = score(doc=2571,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13576832 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
      0.1875 = coord(3/16)
    
    Abstract
    In diesem Aufsatz beschreiben wir ein System zur Analyse von Kurzartikeln. Das System arbeitet halbautomatisch. Das heißt, zunächst wird der Artikel vom System analysiert und dann dem benutzer zur Nachberarbeitung vorgelegt. Die so gewonnene Information wird in einem Datenbankeintrag abgelegt. Über die Datenbank - in dBase IV implementiert - sind dann Abfragen und Zugriffe auf die Originaltexte effizient möglich. Der Kern dieses Aufsatzes betrifft die halbautomatische Analyse. Wir beschreiben unser Verfahren für parametrisiertes Pattern Matching sowie linguistische Heuristiken zur Ermittlung von Nominalphrasen und Präpositionalphrasen. Das System wurde für den praktischen Einsatz im Bonner Büro des 'Forums InformatikerInnen Für Frieden und gesellschaftliche Verantwortung e.V. (FIFF)' entwickelt
    Source
    Datenanalyse, Klassifikation und Informationsverarbeitung: Methoden und Anwendungen in verschiedenen Fachgebieten. Hrsg.: H. Goebl u. M. Schader
  12. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.02
    0.017579636 = product of:
      0.14063708 = sum of:
        0.034883935 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.034883935 = score(doc=4891,freq=14.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.10575315 = weight(_text_:datenverarbeitung in 4891) [ClassicSimilarity], result of:
          0.10575315 = score(doc=4891,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.55916667 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.125 = coord(2/16)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  13. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.017502477 = product of:
      0.09334654 = sum of:
        0.060196377 = weight(_text_:informatik in 782) [ClassicSimilarity], result of:
          0.060196377 = score(doc=782,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.3946243 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.023073554 = weight(_text_:der in 782) [ClassicSimilarity], result of:
          0.023073554 = score(doc=782,freq=8.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34551817 = fieldWeight in 782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.010076613 = weight(_text_:information in 782) [ClassicSimilarity], result of:
          0.010076613 = score(doc=782,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.1920054 = fieldWeight in 782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.1875 = coord(3/16)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  14. Pfeifer, U.: Entwicklung linear-iterativer und logistischer Indexierungsfunktionen (1991) 0.02
    0.016830405 = product of:
      0.13464324 = sum of:
        0.120392755 = weight(_text_:informatik in 794) [ClassicSimilarity], result of:
          0.120392755 = score(doc=794,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.7892486 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
        0.014250483 = weight(_text_:information in 794) [ClassicSimilarity], result of:
          0.014250483 = score(doc=794,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.27153665 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
      0.125 = coord(2/16)
    
    Series
    Informatik-Fachberichte; 289
    Source
    Information retrieval: GI/GMD-Workshop, Darmstadt, 23.-24.6.1991: Proceedings. Ed.: N. Fuhr
  15. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.02
    0.016127063 = product of:
      0.1290165 = sum of:
        0.036482494 = weight(_text_:der in 2562) [ClassicSimilarity], result of:
          0.036482494 = score(doc=2562,freq=20.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.5463122 = fieldWeight in 2562, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.09253401 = weight(_text_:datenverarbeitung in 2562) [ClassicSimilarity], result of:
          0.09253401 = score(doc=2562,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.48927084 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
      0.125 = coord(2/16)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  16. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.02
    0.016090497 = product of:
      0.08581598 = sum of:
        0.027181342 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.027181342 = score(doc=6078,freq=34.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.052876577 = weight(_text_:datenverarbeitung in 6078) [ClassicSimilarity], result of:
          0.052876577 = score(doc=6078,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.27958333 = fieldWeight in 6078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.0057580643 = weight(_text_:information in 6078) [ClassicSimilarity], result of:
          0.0057580643 = score(doc=6078,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.10971737 = fieldWeight in 6078, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.1875 = coord(3/16)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  17. Riloff, E.: ¬An empirical study of automated dictionary construction for information extraction in three domains (1996) 0.02
    0.015347314 = product of:
      0.12277851 = sum of:
        0.014104321 = weight(_text_:information in 6752) [ClassicSimilarity], result of:
          0.014104321 = score(doc=6752,freq=6.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.2687516 = fieldWeight in 6752, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.10867419 = sum of:
          0.076270774 = weight(_text_:engineering in 6752) [ClassicSimilarity], result of:
            0.076270774 = score(doc=6752,freq=2.0), product of:
              0.16061439 = queryWeight, product of:
                5.372528 = idf(docFreq=557, maxDocs=44218)
                0.029895496 = queryNorm
              0.47486886 = fieldWeight in 6752, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.372528 = idf(docFreq=557, maxDocs=44218)
                0.0625 = fieldNorm(doc=6752)
          0.032403417 = weight(_text_:22 in 6752) [ClassicSimilarity], result of:
            0.032403417 = score(doc=6752,freq=2.0), product of:
              0.104688935 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.029895496 = queryNorm
              0.30952093 = fieldWeight in 6752, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=6752)
      0.125 = coord(2/16)
    
    Abstract
    AutoSlog is a system that addresses the knowledge engineering bottleneck for information extraction. AutoSlog automatically creates domain specific dictionaries for information extraction, given an appropriate training corpus. Describes experiments with AutoSlog in terrorism, joint ventures and microelectronics domains. Compares the performance of AutoSlog across the 3 domains, discusses the lessons learned and presents results from 2 experiments which demonstrate that novice users can generate effective dictionaries using AutoSlog
    Date
    6. 3.1997 16:22:15
  18. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.02
    0.015136398 = product of:
      0.08072746 = sum of:
        0.057211563 = weight(_text_:einzelne in 2432) [ClassicSimilarity], result of:
          0.057211563 = score(doc=2432,freq=2.0), product of:
            0.17595729 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.029895496 = queryNorm
            0.3251446 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.018426443 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.018426443 = score(doc=2432,freq=10.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.005089458 = weight(_text_:information in 2432) [ClassicSimilarity], result of:
          0.005089458 = score(doc=2432,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.09697737 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.1875 = coord(3/16)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  19. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.01
    0.013981512 = product of:
      0.111852095 = sum of:
        0.08236979 = weight(_text_:anwendungen in 1407) [ClassicSimilarity], result of:
          0.08236979 = score(doc=1407,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.49349028 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
        0.029482307 = weight(_text_:der in 1407) [ClassicSimilarity], result of:
          0.029482307 = score(doc=1407,freq=10.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.44148692 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.125 = coord(2/16)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
  20. Panyr, J.: Automatische Indexierung und Klassifikation (1983) 0.01
    0.013150835 = product of:
      0.10520668 = sum of:
        0.08236979 = weight(_text_:anwendungen in 7692) [ClassicSimilarity], result of:
          0.08236979 = score(doc=7692,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.49349028 = fieldWeight in 7692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
        0.022836898 = weight(_text_:der in 7692) [ClassicSimilarity], result of:
          0.022836898 = score(doc=7692,freq=6.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34197432 = fieldWeight in 7692, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=7692)
      0.125 = coord(2/16)
    
    Abstract
    Im Beitrag wird zunächst eine terminologische Klärung und Gliederung für drei Indexierungsmethoden und weitere Begriffe, die Konsistenzprobleme bei intellektueller Indexierung betreffen, unternommen. Zur automatichen Indexierung werden Extraktionsmethoden erläutert und zur Automatischen Klassifikation (Clustering) und Indexierung zwei Anwendungen vorgestellt. Eine enge Kooperation zwischen den Befürwortern der intellektuellen und den Entwicklern von automatischen Indexierungsverfahren wird empfohlen
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a

Languages

Types

  • a 290
  • x 29
  • el 25
  • m 15
  • s 10
  • d 2
  • p 2
  • r 1
  • More… Less…