Search (59 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  1. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.09
    0.0901759 = sum of:
      0.0071607963 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.2 = coord(1/5)
      0.065113105 = weight(_text_:deutsche in 1746) [ClassicSimilarity], result of:
        0.065113105 = score(doc=1746,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.3130544 = fieldWeight in 1746, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.046875 = fieldNorm(doc=1746)
      0.01790199 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.5 = coord(1/2)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  2. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.08
    0.083792195 = product of:
      0.12568828 = sum of:
        0.07596529 = weight(_text_:deutsche in 5812) [ClassicSimilarity], result of:
          0.07596529 = score(doc=5812,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.049722992 = product of:
          0.099445984 = sum of:
            0.099445984 = weight(_text_:bibliothek in 5812) [ClassicSimilarity], result of:
              0.099445984 = score(doc=5812,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.54996234 = fieldWeight in 5812, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.08
    0.08193581 = product of:
      0.122903705 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1755,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.2 = coord(1/5)
        0.11335598 = sum of:
          0.06561733 = weight(_text_:bibliothek in 1755) [ClassicSimilarity], result of:
            0.06561733 = score(doc=1755,freq=2.0), product of:
              0.18082327 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.044043828 = queryNorm
              0.36288103 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
          0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
            0.047738645 = score(doc=1755,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.30952093 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  4. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.08
    0.07514658 = sum of:
      0.0059673307 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.2 = coord(1/5)
      0.054260924 = weight(_text_:deutsche in 3780) [ClassicSimilarity], result of:
        0.054260924 = score(doc=3780,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.26087868 = fieldWeight in 3780, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.0390625 = fieldNorm(doc=3780)
      0.014918326 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.5 = coord(1/2)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  5. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.05
    0.047881253 = product of:
      0.071821876 = sum of:
        0.043408737 = weight(_text_:deutsche in 2827) [ClassicSimilarity], result of:
          0.043408737 = score(doc=2827,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.20870294 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.028413141 = product of:
          0.056826282 = sum of:
            0.056826282 = weight(_text_:bibliothek in 2827) [ClassicSimilarity], result of:
              0.056826282 = score(doc=2827,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.3142642 = fieldWeight in 2827, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2827)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  6. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.04
    0.044556074 = product of:
      0.06683411 = sum of:
        0.019095458 = product of:
          0.09547729 = sum of:
            0.09547729 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.09547729 = score(doc=402,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.2 = coord(1/5)
        0.047738645 = product of:
          0.09547729 = sum of:
            0.09547729 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.09547729 = score(doc=402,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  7. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.04
    0.04092615 = product of:
      0.122778445 = sum of:
        0.122778445 = weight(_text_:deutsche in 2653) [ClassicSimilarity], result of:
          0.122778445 = score(doc=2653,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.59030104 = fieldWeight in 2653, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.33333334 = coord(1/3)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  8. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.04
    0.03987538 = product of:
      0.059813067 = sum of:
        0.043408737 = weight(_text_:deutsche in 4051) [ClassicSimilarity], result of:
          0.043408737 = score(doc=4051,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.20870294 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.016404333 = product of:
          0.032808665 = sum of:
            0.032808665 = weight(_text_:bibliothek in 4051) [ClassicSimilarity], result of:
              0.032808665 = score(doc=4051,freq=2.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.18144052 = fieldWeight in 4051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4051)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
  9. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.04
    0.03898656 = product of:
      0.058479838 = sum of:
        0.016708525 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08354262 = score(doc=262,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.2 = coord(1/5)
        0.04177131 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08354262 = score(doc=262,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    20.10.2000 12:22:23
  10. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.04
    0.03898656 = product of:
      0.058479838 = sum of:
        0.016708525 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.08354262 = score(doc=6265,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.2 = coord(1/5)
        0.04177131 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.08354262 = score(doc=6265,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  11. Junger, U.: Can indexing be automated? : the example of the Deutsche Nationalbibliothek (2012) 0.04
    0.03581038 = product of:
      0.10743114 = sum of:
        0.10743114 = weight(_text_:deutsche in 1717) [ClassicSimilarity], result of:
          0.10743114 = score(doc=1717,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.5165134 = fieldWeight in 1717, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1717)
      0.33333334 = coord(1/3)
    
    Abstract
    The German subject headings authority file (Schlagwortnormdatei/SWD) provides a broad controlled vocabulary for indexing documents of all subjects. Traditionally used for intellectual subject cataloguing primarily of books the Deutsche Nationalbibliothek (DNB, German National Library) has been working on developping and implementing procedures for automated assignment of subject headings for online publications. This project, its results and problems are sketched in the paper.
  12. Junger, U.: Can indexing be automated? : the example of the Deutsche Nationalbibliothek (2014) 0.04
    0.03581038 = product of:
      0.10743114 = sum of:
        0.10743114 = weight(_text_:deutsche in 1969) [ClassicSimilarity], result of:
          0.10743114 = score(doc=1969,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.5165134 = fieldWeight in 1969, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1969)
      0.33333334 = coord(1/3)
    
    Abstract
    The German Integrated Authority File (Gemeinsame Normdatei, GND), provides a broad controlled vocabulary for indexing documents on all subjects. Traditionally used for intellectual subject cataloging primarily for books, the Deutsche Nationalbibliothek (DNB, German National Library) has been working on developing and implementing procedures for automated assignment of subject headings for online publications. This project, its results, and problems are outlined in this article.
  13. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07160796 = score(doc=58,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07160796 = score(doc=58,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    14. 6.2015 22:12:44
  14. Hauer, M.: Automatische Indexierung (2000) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  15. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07160796 = score(doc=2051,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07160796 = score(doc=2051,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    14. 6.2015 22:12:56
  16. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5629,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5629,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  17. Beyer, C.; Trunk, D.: Automatische Verfahren für die Formalerschließung im Projekt PETRUS (2011) 0.03
    0.028939158 = product of:
      0.08681747 = sum of:
        0.08681747 = weight(_text_:deutsche in 1712) [ClassicSimilarity], result of:
          0.08681747 = score(doc=1712,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.41740587 = fieldWeight in 1712, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1712)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) erstellt für Netzpublikationen seit Anfang 2010 keine intellektuell per Autopsie und nach gültigem Regelwerk (RAK-WB bzw. RAK-NBM) erschlossen Titeldaten mehr. Da das stetig wachsende Kontingent an Netzpublikationen durch intellektuelle Bearbeitung nicht mehr zu bewältigen ist, wurde mit dem Projekt PETRUS damit begonnen, die Erschließungsprozesse für Netzpublikationen zu automatisieren.
  18. Schöning-Walter, C.: Automatische Erschließungsverfahren für Netzpublikationen : zum Stand der Arbeiten im Projekt PETRUS (2011) 0.03
    0.028939158 = product of:
      0.08681747 = sum of:
        0.08681747 = weight(_text_:deutsche in 1714) [ClassicSimilarity], result of:
          0.08681747 = score(doc=1714,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.41740587 = fieldWeight in 1714, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1714)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Erschließungsprozesse zu automatisieren, um die Publikationen in ihrem Bestand und die bibliografischen Metadaten trotz der enorm anwachsenden Sammlung gedruckter und digitaler Medien so schnell wie möglich für die Nutzung zur Verfügung zu stellen.
  19. Biebricher, N.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬The automatic indexing system AIR/PHYS : from research to application (1988) 0.03
    0.027847543 = product of:
      0.041771315 = sum of:
        0.011934661 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.059673306 = score(doc=1952,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.2 = coord(1/5)
        0.029836653 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.059673306 = score(doc=1952,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    16. 8.1998 12:51:22
  20. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.03
    0.027847543 = product of:
      0.041771315 = sum of:
        0.011934661 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.059673306 = score(doc=4157,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.2 = coord(1/5)
        0.029836653 = product of:
          0.059673306 = sum of:
            0.059673306 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.059673306 = score(doc=4157,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill

Years

Languages

  • d 39
  • e 19
  • ru 1
  • More… Less…

Types

  • a 49
  • x 8
  • el 6
  • m 2
  • More… Less…