Search (39 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Indexieren"
  1. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.09
    0.0901759 = sum of:
      0.0071607963 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.2 = coord(1/5)
      0.065113105 = weight(_text_:deutsche in 1746) [ClassicSimilarity], result of:
        0.065113105 = score(doc=1746,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.3130544 = fieldWeight in 1746, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.046875 = fieldNorm(doc=1746)
      0.01790199 = product of:
        0.03580398 = sum of:
          0.03580398 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
            0.03580398 = score(doc=1746,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.23214069 = fieldWeight in 1746, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1746)
        0.5 = coord(1/2)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  2. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.08
    0.083792195 = product of:
      0.12568828 = sum of:
        0.07596529 = weight(_text_:deutsche in 5812) [ClassicSimilarity], result of:
          0.07596529 = score(doc=5812,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36523014 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.049722992 = product of:
          0.099445984 = sum of:
            0.099445984 = weight(_text_:bibliothek in 5812) [ClassicSimilarity], result of:
              0.099445984 = score(doc=5812,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.54996234 = fieldWeight in 5812, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.08
    0.08193581 = product of:
      0.122903705 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.047738645 = score(doc=1755,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.2 = coord(1/5)
        0.11335598 = sum of:
          0.06561733 = weight(_text_:bibliothek in 1755) [ClassicSimilarity], result of:
            0.06561733 = score(doc=1755,freq=2.0), product of:
              0.18082327 = queryWeight, product of:
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.044043828 = queryNorm
              0.36288103 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.1055303 = idf(docFreq=1980, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
          0.047738645 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
            0.047738645 = score(doc=1755,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.30952093 = fieldWeight in 1755, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1755)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2008 12:35:19
    Source
    Bibliothek: Forschung und Praxis. 30(2006) H.2, S.168-176
  4. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.08
    0.07514658 = sum of:
      0.0059673307 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.2 = coord(1/5)
      0.054260924 = weight(_text_:deutsche in 3780) [ClassicSimilarity], result of:
        0.054260924 = score(doc=3780,freq=2.0), product of:
          0.20799294 = queryWeight, product of:
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.044043828 = queryNorm
          0.26087868 = fieldWeight in 3780, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            4.7224083 = idf(docFreq=1068, maxDocs=44218)
            0.0390625 = fieldNorm(doc=3780)
      0.014918326 = product of:
        0.029836653 = sum of:
          0.029836653 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.029836653 = score(doc=3780,freq=2.0), product of:
              0.15423398 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.044043828 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
        0.5 = coord(1/2)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  5. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.05
    0.047881253 = product of:
      0.071821876 = sum of:
        0.043408737 = weight(_text_:deutsche in 2827) [ClassicSimilarity], result of:
          0.043408737 = score(doc=2827,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.20870294 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.028413141 = product of:
          0.056826282 = sum of:
            0.056826282 = weight(_text_:bibliothek in 2827) [ClassicSimilarity], result of:
              0.056826282 = score(doc=2827,freq=6.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.3142642 = fieldWeight in 2827, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2827)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  6. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.04
    0.04092615 = product of:
      0.122778445 = sum of:
        0.122778445 = weight(_text_:deutsche in 2653) [ClassicSimilarity], result of:
          0.122778445 = score(doc=2653,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.59030104 = fieldWeight in 2653, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=2653)
      0.33333334 = coord(1/3)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  7. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.04
    0.03987538 = product of:
      0.059813067 = sum of:
        0.043408737 = weight(_text_:deutsche in 4051) [ClassicSimilarity], result of:
          0.043408737 = score(doc=4051,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.20870294 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
        0.016404333 = product of:
          0.032808665 = sum of:
            0.032808665 = weight(_text_:bibliothek in 4051) [ClassicSimilarity], result of:
              0.032808665 = score(doc=4051,freq=2.0), product of:
                0.18082327 = queryWeight, product of:
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.044043828 = queryNorm
                0.18144052 = fieldWeight in 4051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.1055303 = idf(docFreq=1980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4051)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
  8. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.04
    0.03898656 = product of:
      0.058479838 = sum of:
        0.016708525 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08354262 = score(doc=262,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.2 = coord(1/5)
        0.04177131 = product of:
          0.08354262 = sum of:
            0.08354262 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.08354262 = score(doc=262,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    20.10.2000 12:22:23
  9. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07160796 = score(doc=58,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.07160796 = score(doc=58,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    14. 6.2015 22:12:44
  10. Hauer, M.: Automatische Indexierung (2000) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5887,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  11. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07160796 = score(doc=2051,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.07160796 = score(doc=2051,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    14. 6.2015 22:12:56
  12. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.03
    0.03341705 = product of:
      0.050125573 = sum of:
        0.014321593 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5629,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.2 = coord(1/5)
        0.03580398 = product of:
          0.07160796 = sum of:
            0.07160796 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.07160796 = score(doc=5629,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  13. Beyer, C.; Trunk, D.: Automatische Verfahren für die Formalerschließung im Projekt PETRUS (2011) 0.03
    0.028939158 = product of:
      0.08681747 = sum of:
        0.08681747 = weight(_text_:deutsche in 1712) [ClassicSimilarity], result of:
          0.08681747 = score(doc=1712,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.41740587 = fieldWeight in 1712, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1712)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) erstellt für Netzpublikationen seit Anfang 2010 keine intellektuell per Autopsie und nach gültigem Regelwerk (RAK-WB bzw. RAK-NBM) erschlossen Titeldaten mehr. Da das stetig wachsende Kontingent an Netzpublikationen durch intellektuelle Bearbeitung nicht mehr zu bewältigen ist, wurde mit dem Projekt PETRUS damit begonnen, die Erschließungsprozesse für Netzpublikationen zu automatisieren.
  14. Schöning-Walter, C.: Automatische Erschließungsverfahren für Netzpublikationen : zum Stand der Arbeiten im Projekt PETRUS (2011) 0.03
    0.028939158 = product of:
      0.08681747 = sum of:
        0.08681747 = weight(_text_:deutsche in 1714) [ClassicSimilarity], result of:
          0.08681747 = score(doc=1714,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.41740587 = fieldWeight in 1714, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0625 = fieldNorm(doc=1714)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Erschließungsprozesse zu automatisieren, um die Publikationen in ihrem Bestand und die bibliografischen Metadaten trotz der enorm anwachsenden Sammlung gedruckter und digitaler Medien so schnell wie möglich für die Nutzung zur Verfügung zu stellen.
  15. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.03
    0.025578845 = product of:
      0.07673653 = sum of:
        0.07673653 = weight(_text_:deutsche in 1081) [ClassicSimilarity], result of:
          0.07673653 = score(doc=1081,freq=4.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.36893815 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
  16. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.02
    0.022278037 = product of:
      0.033417054 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.047738645 = score(doc=3581,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.2 = coord(1/5)
        0.023869323 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.047738645 = score(doc=3581,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    24. 3.2006 12:22:02
  17. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.02
    0.022278037 = product of:
      0.033417054 = sum of:
        0.009547729 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.047738645 = score(doc=401,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.2 = coord(1/5)
        0.023869323 = product of:
          0.047738645 = sum of:
            0.047738645 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.047738645 = score(doc=401,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    11. 9.2012 19:43:22
  18. Wiesenmüller, H.: DNB-Sacherschließung : Neues für die Reihen A und B (2019) 0.02
    0.021704368 = product of:
      0.065113105 = sum of:
        0.065113105 = weight(_text_:deutsche in 5212) [ClassicSimilarity], result of:
          0.065113105 = score(doc=5212,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.3130544 = fieldWeight in 5212, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=5212)
      0.33333334 = coord(1/3)
    
    Abstract
    "Alle paar Jahre wird die Bibliothekscommunity mit Veränderungen in der inhaltlichen Erschließung durch die Deutsche Nationalbibliothek konfrontiert. Sicher werden sich viele noch an die Einschnitte des Jahres 2014 für die Reihe A erinnern: Seither werden u.a. Ratgeber, Sprachwörterbücher, Reiseführer und Kochbücher nicht mehr mit Schlagwörtern erschlossen (vgl. das DNB-Konzept von 2014). Das Jahr 2017 brachte die Einführung der maschinellen Indexierung für die Reihen B und H bei gleichzeitigem Verlust der DDC-Tiefenerschließung (vgl. DNB-Informationen von 2017). Virulent war seither die Frage, was mit der Reihe A passieren würde. Seit wenigen Tagen kann man dies nun auf der Website der DNB nachlesen. (Nebenbei: Es ist zu befürchten, dass viele Links in diesem Blog-Beitrag in absehbarer Zeit nicht mehr funktionieren werden, da ein Relaunch der DNB-Website angekündigt ist. Wie beim letzten Mal wird es vermutlich auch diesmal keine Weiterleitungen von den alten auf die neuen URLs geben.)"
  19. Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.02
    0.021704368 = product of:
      0.065113105 = sum of:
        0.065113105 = weight(_text_:deutsche in 365) [ClassicSimilarity], result of:
          0.065113105 = score(doc=365,freq=2.0), product of:
            0.20799294 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.044043828 = queryNorm
            0.3130544 = fieldWeight in 365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
      0.33333334 = coord(1/3)
    
    Abstract
    Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
  20. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.01949328 = product of:
      0.029239919 = sum of:
        0.008354262 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5671,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.2 = coord(1/5)
        0.020885656 = product of:
          0.04177131 = sum of:
            0.04177131 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.04177131 = score(doc=5671,freq=2.0), product of:
                0.15423398 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044043828 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2001 13:14:48

Years

Types