Search (48 results, page 2 of 3)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2000 TO 2010}
  1. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.00
    0.0020689394 = product of:
      0.03517197 = sum of:
        0.03517197 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.03517197 = score(doc=886,freq=18.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.05882353 = coord(1/17)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  2. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.00
    0.0019082471 = product of:
      0.0324402 = sum of:
        0.0324402 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.0324402 = score(doc=782,freq=20.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.05882353 = coord(1/17)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  3. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.00
    0.0017241163 = product of:
      0.029309977 = sum of:
        0.029309977 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.029309977 = score(doc=3413,freq=8.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.05882353 = coord(1/17)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  4. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.00
    0.0017067881 = product of:
      0.029015398 = sum of:
        0.029015398 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.029015398 = score(doc=2059,freq=4.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
      0.05882353 = coord(1/17)
    
    Imprint
    Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften
  5. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.00
    0.0015420965 = product of:
      0.02621564 = sum of:
        0.02621564 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.02621564 = score(doc=1407,freq=10.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.438048 = fieldWeight in 1407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.05882353 = coord(1/17)
    
    Abstract
    Die Arbeit beschäftigt sich mit den Verfahren der automatischen Indexierung und ihrem Einsatz in wissenschaftlichen Bibliotheken. Der Aspekt wird nicht nur im Hinblick auf den klassischen Online-Katalog, sondern auch auf die im Rahmen des Internet und der Digitalisierung sich ergebende Ausweitung bibliothekarischer Angebote betrachtet. Durch die Entwicklung zu Portalen, zu einer intensiveren Erschließung und zur Integration von Netzpublikationen ergeben sich neue Rahmenbedingungen für das Thema. Eine Auswahl konkret eingesetzter Verfahren wird hinsichtlich ihres spezifischen Ansatzes, des aktuellen Standes und der Perspektiven im Bibliotheksbereich diskutiert.
  6. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.00
    0.0015064032 = product of:
      0.025608854 = sum of:
        0.025608854 = product of:
          0.05121771 = sum of:
            0.05121771 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.05121771 = score(doc=6265,freq=2.0), product of:
                0.09455665 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027002072 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.05882353 = coord(1/17)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  7. Ladewig, C.; Henkes, M.: Verfahren zur automatischen inhaltlichen Erschließung von elektronischen Texten : ASPECTIX (2001) 0.00
    0.0013684749 = product of:
      0.023264073 = sum of:
        0.023264073 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.023264073 = score(doc=5794,freq=14.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.38872904 = fieldWeight in 5794, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
      0.05882353 = coord(1/17)
    
    Abstract
    Das Verfahren zur automatischen syntaktischen inhaltlichen Erschließung von elektronischen Texten, AspectiX, basiert auf einem Index, dessen Elemente mit einer universellen Aspekt-Klassifikation verknüpft sind, die es erlauben, ein syntaktisches Retrieval durchzuführen. Mit diesen, auf den jeweiligen Suchgegenstand inhaltlich bezogenen Klassifikationselementen, werden die Informationen in elektronischen Texten mit bekannten Suchalgorithmen abgefragt und die Ergebnisse entsprechend der Aspektverknüpfung ausgewertet. Mit diesen Aspekten ist es möglich, unbekannte Textdokumente automatisch fachgebiets- und sprachunabhängig nach Inhalten zu klassifizieren und beim Suchen in einem Textcorpus nicht nur auf die Verwendung von Zeichenfolgen angewiesen zu sein wie bei Suchmaschinen im WWW. Der Index kann bei diesen Vorgängen intellektuell und automatisch weiter ausgebaut werden und liefert Ergebnisse im Retrieval von nahezu 100 Prozent Precision, bei gleichzeitig nahezu 100 Prozent Recall. Damit ist das Verfahren AspectiX allen anderen Recherchetools um bis zu 40 Prozent an Precision bzw. Recall überlegen, wie an zahlreichen Recherchen in drei Datenbanken, die unterschiedlich groß und thematisch unähnlich sind, nachgewiesen wird
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.3, S.159-164
  8. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.00
    0.0013354948 = product of:
      0.022703411 = sum of:
        0.022703411 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.022703411 = score(doc=2827,freq=30.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
      0.05882353 = coord(1/17)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  9. Hauer, M.: Automatische Indexierung (2000) 0.00
    0.0012912027 = product of:
      0.021950446 = sum of:
        0.021950446 = product of:
          0.043900892 = sum of:
            0.043900892 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.043900892 = score(doc=5887,freq=2.0), product of:
                0.09455665 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027002072 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.05882353 = coord(1/17)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  10. Bunk, T.: Deskriptoren Stoppwortlisten und kryptische Zeichen (2008) 0.00
    0.0012191342 = product of:
      0.020725282 = sum of:
        0.020725282 = weight(_text_:und in 2471) [ClassicSimilarity], result of:
          0.020725282 = score(doc=2471,freq=4.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.34630734 = fieldWeight in 2471, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2471)
      0.05882353 = coord(1/17)
    
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.5, S.285-292
  11. Stock, W.G.: Textwortmethode (2000) 0.00
    0.0012191342 = product of:
      0.020725282 = sum of:
        0.020725282 = weight(_text_:und in 3408) [ClassicSimilarity], result of:
          0.020725282 = score(doc=3408,freq=4.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.34630734 = fieldWeight in 3408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3408)
      0.05882353 = coord(1/17)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  12. Schröther, C.: Automatische Indexierung, Kategorisierung und inhaltliche Erschließung von Textnachrichten (2003) 0.00
    0.0012068815 = product of:
      0.020516984 = sum of:
        0.020516984 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.020516984 = score(doc=521,freq=2.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
      0.05882353 = coord(1/17)
    
  13. Yusuff, A.: Automatisches Indexing and Abstracting : Grundlagen und Beispiele (2002) 0.00
    0.0012068815 = product of:
      0.020516984 = sum of:
        0.020516984 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
          0.020516984 = score(doc=1577,freq=2.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.34282678 = fieldWeight in 1577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1577)
      0.05882353 = coord(1/17)
    
  14. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.00
    0.0011945028 = product of:
      0.020306548 = sum of:
        0.020306548 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.020306548 = score(doc=4891,freq=6.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.05882353 = coord(1/17)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  15. Hauer, M.: Digitalisierung von Aufsätzen und anderen Texten mit maschineller Inhaltserschließung am Beispiel der Vorarlberger Landesbibliothek Bregenz : Wissensressourcen zutage fördern (2003) 0.00
    0.0011945028 = product of:
      0.020306548 = sum of:
        0.020306548 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.020306548 = score(doc=1498,freq=6.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
      0.05882353 = coord(1/17)
    
    Abstract
    Durch die Nutzung des Internet wird sich die Erwartungshaltung der Bibliothekskundschaft nachhaltig verändern. Es ist absehbar, dass von den Bibliotheken künftig mehr gefordert wird, als die formale und inhaltliche Erschließung mithilfe tradierter Verfahren und Regelwerke wie RAK, AACR, Klassifikationen, Schlagwortnormdatei oder Fachthesauri.
  16. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.00
    0.0011945028 = product of:
      0.020306548 = sum of:
        0.020306548 = weight(_text_:und in 1879) [ClassicSimilarity], result of:
          0.020306548 = score(doc=1879,freq=6.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.33931053 = fieldWeight in 1879, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1879)
      0.05882353 = coord(1/17)
    
    Abstract
    Maschinelles Indexieren vereinheitlicht und vermehrt das Suchvokabular eines Bibliothekskatalogs durch verschiedene Methoden (u.a. Ermittlung der Grundform, Kompositazerlegung, Wortableitungen). Ein Retrievaltest mit einem für öffentliche Bibliotheken typischen Sachbuchbestand zeigt, dass dieses Verfahren die Ergebnisse von OPAC-Recherchen verbessert - trotz 'blumiger' Titelformulierungen. Im Vergleich zu herkömmlichen Erschließungsmethoden (Stich- und Schlagwörter) werden mehr relevante Titel gefunden, ohne gleichzeitig den 'Ballast' zu erhöhen. Das maschinelle Indexieren kann die Verschlagwortung jedoch nicht ersetzen, sondern nur ergänzen
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.00
    0.0011565724 = product of:
      0.01966173 = sum of:
        0.01966173 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.01966173 = score(doc=6386,freq=10.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.05882353 = coord(1/17)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  18. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.00
    0.0011565724 = product of:
      0.01966173 = sum of:
        0.01966173 = weight(_text_:und in 1915) [ClassicSimilarity], result of:
          0.01966173 = score(doc=1915,freq=10.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.328536 = fieldWeight in 1915, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
      0.05882353 = coord(1/17)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  19. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.00
    0.0011403956 = product of:
      0.019386726 = sum of:
        0.019386726 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.019386726 = score(doc=2489,freq=14.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.05882353 = coord(1/17)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.33-38
  20. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.00
    0.0011403956 = product of:
      0.019386726 = sum of:
        0.019386726 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.019386726 = score(doc=318,freq=14.0), product of:
            0.0598465 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027002072 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
      0.05882353 = coord(1/17)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.

Languages

  • d 44
  • e 4

Types