Search (78 results, page 1 of 4)

  • × theme_ss:"Automatisches Indexieren"
  1. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.02
    0.022694042 = product of:
      0.13616425 = sum of:
        0.046871334 = weight(_text_:informatik in 3194) [ClassicSimilarity], result of:
          0.046871334 = score(doc=3194,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2818745 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.08929291 = weight(_text_:systeme in 3194) [ClassicSimilarity], result of:
          0.08929291 = score(doc=3194,freq=6.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.51202476 = fieldWeight in 3194, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.16666667 = coord(2/12)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  2. Griffiths, A.; Robinson, L.A.; Willett, P.: Hierarchic agglomerative clustering methods for automatic document classification (1984) 0.02
    0.019129448 = product of:
      0.22955337 = sum of:
        0.22955337 = weight(_text_:205 in 2414) [ClassicSimilarity], result of:
          0.22955337 = score(doc=2414,freq=2.0), product of:
            0.2057144 = queryWeight, product of:
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.032588977 = queryNorm
            1.1158838 = fieldWeight in 2414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.125 = fieldNorm(doc=2414)
      0.083333336 = coord(1/12)
    
    Source
    Journal of documentation. 40(1984) no.3, S.175-205
  3. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.02
    0.016404103 = product of:
      0.09842461 = sum of:
        0.046871334 = weight(_text_:informatik in 4283) [ClassicSimilarity], result of:
          0.046871334 = score(doc=4283,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.2818745 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.051553283 = weight(_text_:systeme in 4283) [ClassicSimilarity], result of:
          0.051553283 = score(doc=4283,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2956176 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.16666667 = coord(2/12)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  4. Mohrenweis, T.: Konzepte der automatischen Indexierung und vergleichende Analyse der Systeme STAIRS, STEINADLER/CONDOR, CTX und PASSAT/GOLEM (1984) 0.01
    0.0120291 = product of:
      0.1443492 = sum of:
        0.1443492 = weight(_text_:systeme in 5171) [ClassicSimilarity], result of:
          0.1443492 = score(doc=5171,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.82772934 = fieldWeight in 5171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.109375 = fieldNorm(doc=5171)
      0.083333336 = coord(1/12)
    
  5. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.01
    0.0120291 = product of:
      0.1443492 = sum of:
        0.1443492 = weight(_text_:systeme in 2059) [ClassicSimilarity], result of:
          0.1443492 = score(doc=2059,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.82772934 = fieldWeight in 2059, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
      0.083333336 = coord(1/12)
    
  6. Pfeifer, U.: Entwicklung linear-iterativer und logistischer Indexierungsfunktionen (1991) 0.01
    0.010936644 = product of:
      0.13123973 = sum of:
        0.13123973 = weight(_text_:informatik in 794) [ClassicSimilarity], result of:
          0.13123973 = score(doc=794,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.7892486 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
      0.083333336 = coord(1/12)
    
    Series
    Informatik-Fachberichte; 289
  7. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.01
    0.008965897 = product of:
      0.053795382 = sum of:
        0.04124263 = weight(_text_:systeme in 2543) [ClassicSimilarity], result of:
          0.04124263 = score(doc=2543,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.012552753 = weight(_text_:internet in 2543) [ClassicSimilarity], result of:
          0.012552753 = score(doc=2543,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.1304718 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.16666667 = coord(2/12)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
  8. Volk, M.; Mittermaier, H.; Schurig, A.; Biedassek, T.: Halbautomatische Volltextanalyse, Datenbankaufbau und Document Retrieval (1992) 0.01
    0.008369134 = product of:
      0.1004296 = sum of:
        0.1004296 = weight(_text_:205 in 2571) [ClassicSimilarity], result of:
          0.1004296 = score(doc=2571,freq=2.0), product of:
            0.2057144 = queryWeight, product of:
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.032588977 = queryNorm
            0.48819917 = fieldWeight in 2571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2571)
      0.083333336 = coord(1/12)
    
    Pages
    S.205-214
  9. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.008345557 = product of:
      0.05007334 = sum of:
        0.04124263 = weight(_text_:systeme in 1767) [ClassicSimilarity], result of:
          0.04124263 = score(doc=1767,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.2364941 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008830713 = product of:
          0.017661426 = sum of:
            0.017661426 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.017661426 = score(doc=1767,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
  10. Zimmermann, H.: Automatische Indexierung: Entwicklung und Perspektiven (1983) 0.01
    0.0068737715 = product of:
      0.08248526 = sum of:
        0.08248526 = weight(_text_:systeme in 2318) [ClassicSimilarity], result of:
          0.08248526 = score(doc=2318,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.4729882 = fieldWeight in 2318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
      0.083333336 = coord(1/12)
    
    Abstract
    Die Automatische Indexierung als ein Teilgebiet der Inhaltserschließung wird inzwischen in einer Reihe von Gebieten, vor allem in der Fachinformation und Kommunikation praktisch eingesetzt. Dabei dominieren äußerst einfache Systeme, die (noch) erhebliche Anpassungen des Benutzers an die jeweilige Systemstrategie voraussetzen. Unter Berücksichtigung des Konzepts der Einheit von Informationserschließung und -retrieval werden höherwertige ("intelligentere") Verfahren vorgestellt, die der Entlastung des Informationssuchenden wie auch der Verbesserung der Rechercheergebnisse dienen sollen
  11. Wolfekuhler, M.R.; Punch, W.F.: Finding salient features for personal Web pages categories (1997) 0.01
    0.0062368447 = product of:
      0.037421066 = sum of:
        0.021967318 = weight(_text_:internet in 2673) [ClassicSimilarity], result of:
          0.021967318 = score(doc=2673,freq=2.0), product of:
            0.09621047 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.032588977 = queryNorm
            0.22832564 = fieldWeight in 2673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2673)
        0.015453748 = product of:
          0.030907497 = sum of:
            0.030907497 = weight(_text_:22 in 2673) [ClassicSimilarity], result of:
              0.030907497 = score(doc=2673,freq=2.0), product of:
                0.11412105 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032588977 = queryNorm
                0.2708308 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    1. 8.1996 22:08:06
    Theme
    Internet
  12. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.01
    0.006075613 = product of:
      0.07290736 = sum of:
        0.07290736 = weight(_text_:systeme in 598) [ClassicSimilarity], result of:
          0.07290736 = score(doc=598,freq=4.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.41806644 = fieldWeight in 598, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.083333336 = coord(1/12)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  13. Kaiser, A.: Computer-unterstütztes Indexieren in Intelligenten Information Retrieval Systemen : Ein Relevanz-Feedback orientierter Ansatz zur Informationserschließung in unformatierten Datenbanken (1993) 0.01
    0.0057638325 = product of:
      0.06916599 = sum of:
        0.06916599 = weight(_text_:systeme in 4284) [ClassicSimilarity], result of:
          0.06916599 = score(doc=4284,freq=10.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.39661264 = fieldWeight in 4284, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
      0.083333336 = coord(1/12)
    
    Abstract
    Information ist in unserer Zeit zu einem sehr wichtigen Gut geworden. Sie ist Grundlage jeglicher seriösen Entscheidungsfindung. Die Informationsflut ist in den letzten Jahren stark angestiegen und auch in absehbarer Zeit wird die Menge der Informationen weiter anwachsen. Daher wird es immer wichtiger, sich ''Information über Information'' zu organisieren. Es ist nicht möglich, über alle Bereiche, mit denen man konfrontiert wird, im letzten Detail informiert zu sein. Notwendig und wichtig ist es aber zu wissen, wo man sich informieren kann. Relevante Informationen müssen möglichst rasch gefunden werden können. Im praktischen, EDV-unterstützten Einsatz findet man zu diesem Zweck Informationssysteme verschiedenster Art. Das Spektrum reicht dabei von Management-Informationssystemen, über Expertensysteme bis zu Datenbanksystemen und Information Retrieval Systemen (IR-Systemen). Obwohl die einzelnen Typen dieser informationsverarbeitenden Systeme für unterschiedliche Anwendergruppen und unterschiedliche Aufgabenarten konzipiert sind, ergeben sich beim Entwurf der Systeme doch sehr ähnlich gelagerte Problemkreise und Fragestellungen. * Die Darstellung und die Organisation von bestehendem Wissen und bekannten Fakten im Informationssystem (Informationserschließung). * Das (Wieder)finden relevanter Informationen aus dem Informationssystem und das Führen des Benutzers durch das Informationssystem. Ein Information Retrieval System beinhaltet unstrukturierte bibliographische oder textuelle Dokumente und unterscheidet sich dadurch wesentlich von Datenbanksystemen, die für gewöhnlich strukturierte Daten enthalten.
    Konventionelle, formatierte Datenbanken sind heute in der Praxis bereits weit verbreitet. Dies nicht zuletzt auch deshalb, weil unter anderem die standardisierte Abfragesprache SQL existiert und insbesondere bei relationalen Datenbanksystemen die Forschung intensiv an Verbesserungen in Aufbau und Performance der Systeme arbeitet. Die Verbreitung und Akzeptanz von unformatierten Datenbanken, Information Retrieval Systemen, ist hingegen bei weitem nicht so weit gediehen. Ein Grund dafür ist in der mangelnden Benutzerfreundlichkeit der IR-Systeme und in unzulänglichen Methoden der Informationserschließung zu suchen. Mit der vorliegenden Arbeit soll eine Methode zur Informationserschliessung in Information Retrieval Systemen entwickelt werden, die die Bedürfnisse des Benutzers in den Mittelpunkt stellt und so einen Beitrag dazu leistet, die Akzeptanz und Verbreitung von Information Retrieval Systemen, insbesondere für den Bürobereich, zu erhöhen. Die Fragestellung lautet somit: Ist es möglich, den Benutzer bereits im Stadium der Indexierung von Dokumenten in verstärktem Maße miteinzubeziehen, ohne dabei aber auf die maschinelle Unterstützung völlig zu verzichten, wie dies bei der manuellen Indexierung der Fall ist. Jedes Retrievalsystem kann als ein System beschrieben werden, das aus einer Menge von Dokumenten und einer Menge von Suchfragen besteht und das einen Mechanismus enthält, der die für eine Suchanfrage relevanten Dokumente bestimmt.
    Es würde den Rahmen der Arbeit sprengen, alle Komponenten eines Information Retrieval Systems zu untersuchen. Daher wird ein Schwerpunkt auf die Informationserschließung gelegt. Dabei wird die (semi)automatische Indexierung von Dokumenten zum Zwecke des Information Retrievals, also der Vorgang der Übersetzung der Dokumente in eine Indexierungssprache genauer behandelt. Dieser Schwerpunkt wurde unter anderem deshalb gewählt, weil meiner Ansicht nach die festzustellende mangelnde Akzeptanz von Information Retrieval Systemen auch damit zu begründen ist, daß die in der Praxis eingesetzten Indexierungskomponenten der Systeme zur Zeit noch nicht den Leistungsumfang erbringen, den der Benutzer von einem ''Intelligenten Information Retrieval System'' erwartet. Ziel der Arbeit ist es, ein Modell zur automatischen Indexierung schrittweise zu entwickeln, das den Benutzer in stärkerem Maße in die Indexierung mit einbezieht, als dies bei den in Literatur und Praxis beschriebenen Verfahren der Fall ist.
  14. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.01
    0.00552384 = product of:
      0.06628608 = sum of:
        0.06628608 = weight(_text_:informatik in 1081) [ClassicSimilarity], result of:
          0.06628608 = score(doc=1081,freq=4.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.39863077 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.083333336 = coord(1/12)
    
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  15. Tzeras, K.: Zur Aufwandsabschätzung bei der Entwicklung eines Indexierungswörterbuches (1991) 0.01
    0.005468322 = product of:
      0.06561986 = sum of:
        0.06561986 = weight(_text_:informatik in 792) [ClassicSimilarity], result of:
          0.06561986 = score(doc=792,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.3946243 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=792)
      0.083333336 = coord(1/12)
    
    Series
    Informatik-Fachberichte; 289
  16. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.01
    0.005468322 = product of:
      0.06561986 = sum of:
        0.06561986 = weight(_text_:informatik in 782) [ClassicSimilarity], result of:
          0.06561986 = score(doc=782,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.3946243 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.083333336 = coord(1/12)
    
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  17. Daudaravicius, V.: ¬A framework for keyphrase extraction from scientific journals (2016) 0.01
    0.005468322 = product of:
      0.06561986 = sum of:
        0.06561986 = weight(_text_:informatik in 2930) [ClassicSimilarity], result of:
          0.06561986 = score(doc=2930,freq=2.0), product of:
            0.1662844 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032588977 = queryNorm
            0.3946243 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2930)
      0.083333336 = coord(1/12)
    
    Field
    Informatik
  18. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.01
    0.0051553287 = product of:
      0.061863944 = sum of:
        0.061863944 = weight(_text_:systeme in 4) [ClassicSimilarity], result of:
          0.061863944 = score(doc=4,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
      0.083333336 = coord(1/12)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  19. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.0051553287 = product of:
      0.061863944 = sum of:
        0.061863944 = weight(_text_:systeme in 6386) [ClassicSimilarity], result of:
          0.061863944 = score(doc=6386,freq=2.0), product of:
            0.17439179 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.032588977 = queryNorm
            0.35474116 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.083333336 = coord(1/12)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  20. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.00
    0.0049703075 = product of:
      0.059643686 = sum of:
        0.059643686 = product of:
          0.11928737 = sum of:
            0.11928737 = weight(_text_:allgemein in 7726) [ClassicSimilarity], result of:
              0.11928737 = score(doc=7726,freq=2.0), product of:
                0.17123379 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.032588977 = queryNorm
                0.69663453 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Theme
    Katalogfragen allgemein

Years

Languages

Types

  • a 58
  • x 12
  • el 6
  • m 3
  • s 2
  • d 1
  • More… Less…