Search (15 results, page 1 of 1)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2000 TO 2010}
  1. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.09
    0.0901759 = sum of:
      0.0071607963 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.2 = coord(1/5)
      0.065113105 = weight(_text_:deutsche in 1746) [ClassicSimilarity], result of:
        0.065113105 = score(doc=1746,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.3130544 = fieldWeight in 1746, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.046875 = fieldNorm(doc=1746)
      0.01790199 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.5 = coord(1/2)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  2. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.08
    0.083792195 = product of:
      0.12568828 = sum of:
        0.07596529 = weight(_text_:deutsche in 5812) [ClassicSimilarity], result of:
          0.07596529 = score(doc=5812,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.049722992 = product of:
          0.099445984 = sum of:
            0.099445984 = weight(_text_:bibliothek in 5812) [ClassicSimilarity], result of:
              0.099445984 = score(doc=5812,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.54996234 = fieldWeight in 5812, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.08
    0.08193581 = product of:
      0.122903705 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1755,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.2 = coord(1/5)
        0.11335598 = sum of:
          0.06561733 = weight(_text_:bibliothek in 1755) [ClassicSimilarity], result of:
            0.06561733 = score(doc=1755,freq=2.0), product of:
              0.18082327 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.044043828 = queryNorm
              0.36288103 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
          0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
            0.047738645 = score(doc=1755,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.30952093 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  4. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.05
    0.047881253 = product of:
      0.071821876 = sum of:
        0.043408737 = weight(_text_:deutsche in 2827) [ClassicSimilarity], result of:
          0.043408737 = score(doc=2827,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.20870294 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.028413141 = product of:
          0.056826282 = sum of:
            0.056826282 = weight(_text_:bibliothek in 2827) [ClassicSimilarity], result of:
              0.056826282 = score(doc=2827,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.3142642 = fieldWeight in 2827, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2827)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  5. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.04
    0.03898656 = product of:
      0.058479838 = sum of:
        0.016708525 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.08354262 = score(doc=6265,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.2 = coord(1/5)
        0.04177131 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.08354262 = score(doc=6265,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  6. Hauer, M.: Automatische Indexierung (2000) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  7. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.02
    0.022278037 = product of:
      0.033417054 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.047738645 = score(doc=3581,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.2 = coord(1/5)
        0.023869323 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.047738645 = score(doc=3581,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    24. 3.2006 12:22:02
  8. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.01949328 = product of:
      0.029239919 = sum of:
        0.008354262 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5671,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.2 = coord(1/5)
        0.020885656 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5671,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2001 13:14:48
  9. Newman, D.J.; Block, S.: Probabilistic topic decomposition of an eighteenth-century American newspaper (2006) 0.02
    0.01949328 = product of:
      0.029239919 = sum of:
        0.008354262 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5291) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5291,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5291)
          0.2 = coord(1/5)
        0.020885656 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5291) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5291,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5291)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 7.2006 17:32:00
  10. Woltering, H.: Maschinelle Indexierung in der Bibliothek der Friedrich-Ebert-Stiftung (2002) 0.02
    0.01913839 = product of:
      0.05741517 = sum of:
        0.05741517 = product of:
          0.11483034 = sum of:
            0.11483034 = weight(_text_:bibliothek in 4351) [ClassicSimilarity], result of:
              0.11483034 = score(doc=4351,freq=2.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.63504183 = fieldWeight in 4351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4351)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  11. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.02
    0.018086975 = product of:
      0.054260924 = sum of:
        0.054260924 = weight(_text_:deutsche in 4283) [ClassicSimilarity], result of:
          0.054260924 = score(doc=4283,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.26087868 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.33333334 = coord(1/3)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
  12. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.011139018 = product of:
      0.016708527 = sum of:
        0.0047738645 = product of:
          0.023869323 = sum of:
            0.023869323 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.023869323 = score(doc=1767,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.2 = coord(1/5)
        0.011934661 = product of:
          0.023869323 = sum of:
            0.023869323 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.023869323 = score(doc=1767,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 6.2009 12:46:51
  13. Grummann, M.: Sind Verfahren zur maschinellen Indexierung für Literaturbestände Öffentlicher Bibliotheken geeignet? : Retrievaltests von indexierten ekz-Daten mit der Software IDX (2000) 0.01
    0.010936222 = product of:
      0.032808665 = sum of:
        0.032808665 = product of:
          0.06561733 = sum of:
            0.06561733 = weight(_text_:bibliothek in 1879) [ClassicSimilarity], result of:
              0.06561733 = score(doc=1879,freq=2.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.36288103 = fieldWeight in 1879, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1879)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Bibliothek: Forschung und Praxis. 24(2000) H.3, S.297-318
  14. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.01
    0.009666346 = product of:
      0.028999038 = sum of:
        0.028999038 = product of:
          0.057998076 = sum of:
            0.057998076 = weight(_text_:bibliothek in 2432) [ClassicSimilarity], result of:
              0.057998076 = score(doc=2432,freq=4.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.32074454 = fieldWeight in 2432, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2432)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  15. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.01
    0.005468111 = product of:
      0.016404333 = sum of:
        0.016404333 = product of:
          0.032808665 = sum of:
            0.032808665 = weight(_text_:bibliothek in 4031) [ClassicSimilarity], result of:
              0.032808665 = score(doc=4031,freq=2.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.18144052 = fieldWeight in 4031, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4031)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.