Search (191 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Fuhr, N.: Klassifikationsverfahren bei der automatischen Indexierung (1983) 0.03
    0.030427787 = product of:
      0.18256672 = sum of:
        0.060675684 = weight(_text_:physik in 7697) [ClassicSimilarity], result of:
          0.060675684 = score(doc=7697,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.5629463 = fieldWeight in 7697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.081161916 = weight(_text_:statistische in 7697) [ClassicSimilarity], result of:
          0.081161916 = score(doc=7697,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.65108216 = fieldWeight in 7697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
        0.030337842 = product of:
          0.060675684 = sum of:
            0.060675684 = weight(_text_:physik in 7697) [ClassicSimilarity], result of:
              0.060675684 = score(doc=7697,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.5629463 = fieldWeight in 7697, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7697)
          0.5 = coord(1/2)
        0.010391281 = weight(_text_:und in 7697) [ClassicSimilarity], result of:
          0.010391281 = score(doc=7697,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.27704588 = fieldWeight in 7697, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7697)
      0.16666667 = coord(4/24)
    
    Abstract
    Nach einer kurzen Einführung in die Darmstädter Projekte WAI und AIR werden die folgenden Themen behandelt: Ein Ansatz zur automatischen Klassifikation. Statistische Relationen für die Klassifikation. Indexieren von Dokumenten als Spezialfall der automatischen Klassifikation. Klassifikation von Elementen der Relevanzbeschreibung. Klassifikation zur Verbesserung der Relevanzbeschreibungen. Automatische Dokumentklassifikation und Automatische Indexierung klassifizierter Dokumente. Das Projekt AIR wird in Zusammenarbeit mit der Datenbasis INKA-PHYS des Fachinformationszentrums Energie, Physik, Mathematik in Karlsruhe durchgeführt
  2. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.02
    0.015685257 = product of:
      0.12548205 = sum of:
        0.07508233 = weight(_text_:physik in 953) [ClassicSimilarity], result of:
          0.07508233 = score(doc=953,freq=4.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.69661057 = fieldWeight in 953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.037541166 = product of:
          0.07508233 = sum of:
            0.07508233 = weight(_text_:physik in 953) [ClassicSimilarity], result of:
              0.07508233 = score(doc=953,freq=4.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.69661057 = fieldWeight in 953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=953)
          0.5 = coord(1/2)
        0.012858554 = weight(_text_:und in 953) [ClassicSimilarity], result of:
          0.012858554 = score(doc=953,freq=8.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.34282678 = fieldWeight in 953, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
      0.125 = coord(3/24)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Footnote
    Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
  3. Biebricher, P.; Fuhr, N.; Knorz, G.; Lustig, G.; Schwandtner, M.: Entwicklung und Anwendung des automatischen Indexierungssystems AIR/PHYS (1988) 0.01
    0.012967525 = product of:
      0.1037402 = sum of:
        0.060675684 = weight(_text_:physik in 2320) [ClassicSimilarity], result of:
          0.060675684 = score(doc=2320,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.5629463 = fieldWeight in 2320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.030337842 = product of:
          0.060675684 = sum of:
            0.060675684 = weight(_text_:physik in 2320) [ClassicSimilarity], result of:
              0.060675684 = score(doc=2320,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.5629463 = fieldWeight in 2320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2320)
          0.5 = coord(1/2)
        0.012726668 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.012726668 = score(doc=2320,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
      0.125 = coord(3/24)
    
    Abstract
    Seit 1985 wird das automatische Indexierungssystem AIR/PHYS in der Inputproduktion der Physik-Datenbank PHYS des Fachinformationszentrums Karlsruhe angewandt. Das AIR/PHYS-System teilt englischsprachigen Referatetexten Deskriptoren aus einem vorgeschriebenen Vokabular zu. In der vorliegenden Arbeit werden der zugrundeliegende fehlertolerierende Ansatz, der Aufbau des Systems und die wichtigsten Verfahren zur Entwicklung eines großen Indexierungswörterbuches beschrieben. Ferner werden Probleme der Anwendung und Weiterentwicklung des Systems behandelt
  4. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.0113796 = product of:
      0.0682776 = sum of:
        0.040580958 = weight(_text_:statistische in 1767) [ClassicSimilarity], result of:
          0.040580958 = score(doc=1767,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.32554108 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.014695491 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.014695491 = score(doc=1767,freq=32.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.010708319 = product of:
          0.021416638 = sum of:
            0.021416638 = weight(_text_:systeme in 1767) [ClassicSimilarity], result of:
              0.021416638 = score(doc=1767,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2364941 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
        0.0022928242 = product of:
          0.009171297 = sum of:
            0.009171297 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.009171297 = score(doc=1767,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.25 = coord(1/4)
      0.16666667 = coord(4/24)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  5. Liedloff, V.: Anwendung eines existenten Klassifikationssystems im Bereich der computerunterstützten Inhaltsanalyse (1985) 0.01
    0.0066757537 = product of:
      0.080109045 = sum of:
        0.07101668 = weight(_text_:statistische in 2921) [ClassicSimilarity], result of:
          0.07101668 = score(doc=2921,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.5696969 = fieldWeight in 2921, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
        0.009092371 = weight(_text_:und in 2921) [ClassicSimilarity], result of:
          0.009092371 = score(doc=2921,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.24241515 = fieldWeight in 2921, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2921)
      0.083333336 = coord(2/24)
    
    Abstract
    In universitärer Grundlagenforschung wurde das Computergestützte TeXterschließungssystem (CTX) entwickelt. Es ist ein wörterbuchorientiertes Verfahren, das aufbauend auf einer wort- und satzorientierten Verarbeitung von Texten zu einem deutschsprachigen Text/ Dokument formal-inhaltliche Stichwörter (Grundformen, systemintern "Deskriptoren" genannt) erstellt. Diese dienen als Input für die Computer-Unterstützte Inhaltsanalyse (CUI). Mit Hilfe eines Thesaurus werden die Deskriptoren zu Oberbegriffen zusammengefaßt und die durch CTX erstellte Deskriptorliste über eine Vergleichsliste auf die Kategorien (=Oberbegriffe) des Thesaurus abgebildet. Das Ergebnis wird über mathematisch-statistische Auswertungsverfahren weiterverarbeitet. Weitere Vorteile der Einbringung eines Thesaurus werden genannt
  6. Daudaravicius, V.: ¬A framework for keyphrase extraction from scientific journals (2016) 0.01
    0.006636403 = product of:
      0.079636835 = sum of:
        0.053091224 = weight(_text_:physik in 2930) [ClassicSimilarity], result of:
          0.053091224 = score(doc=2930,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.49257803 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2930)
        0.026545612 = product of:
          0.053091224 = sum of:
            0.053091224 = weight(_text_:physik in 2930) [ClassicSimilarity], result of:
              0.053091224 = score(doc=2930,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.49257803 = fieldWeight in 2930, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2930)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Field
    Physik
  7. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.005883927 = product of:
      0.047071416 = sum of:
        0.017182967 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.017182967 = score(doc=3780,freq=28.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.02702242 = product of:
          0.05404484 = sum of:
            0.05404484 = weight(_text_:prozesse in 3780) [ClassicSimilarity], result of:
              0.05404484 = score(doc=3780,freq=4.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.4994986 = fieldWeight in 3780, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.011464121 = score(doc=3780,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  8. Gil-Leiva, I.; Munoz, J.V.R.: Analisis de los descriptores de diferentes areas del conocimiento indizades en bases de datos del CSIC : Aplicacion a la indizacion automatica (1997) 0.01
    0.005688346 = product of:
      0.06826015 = sum of:
        0.045506764 = weight(_text_:physik in 2637) [ClassicSimilarity], result of:
          0.045506764 = score(doc=2637,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.42220974 = fieldWeight in 2637, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.046875 = fieldNorm(doc=2637)
        0.022753382 = product of:
          0.045506764 = sum of:
            0.045506764 = weight(_text_:physik in 2637) [ClassicSimilarity], result of:
              0.045506764 = score(doc=2637,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.42220974 = fieldWeight in 2637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2637)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Field
    Physik
  9. Groß, T.: Automatische Indexierung von wirtschaftswissenschaftlichen Dokumenten : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2010) 0.01
    0.00560701 = product of:
      0.067284115 = sum of:
        0.050726194 = weight(_text_:statistische in 2078) [ClassicSimilarity], result of:
          0.050726194 = score(doc=2078,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 2078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
        0.01655792 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
          0.01655792 = score(doc=2078,freq=26.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.441457 = fieldWeight in 2078, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2078)
      0.083333336 = coord(2/24)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von manuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Arbeit befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer, der Firma Recommind, an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW). Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Deskriptoren umfassenden Standard-Thesaurus Wirtschaft (STW) wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Arbeit liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung und entsprechender Anpassung der von Stock (2008) und Lancaster (2003) hierzu vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Zusätzlich wird die Belegungsbilanz des STW evaluiert und es erfolgt ferner eine stichprobenartige, qualitative Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
    Content
    Vgl. unter: http://edoc.hu-berlin.de/series/berliner-handreichungen/2010-284/PDF/284.pdf. Auch als: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek: Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Diplomica Verlag, 2011.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  10. Lepsky, K.: Automatische Indexierung und bibliothekarische Inhaltserschließung : Ergebnisse des DFG-Projekts MILOS I (1996) 0.01
    0.0055085416 = product of:
      0.0661025 = sum of:
        0.05152227 = weight(_text_:kooperative in 2061) [ClassicSimilarity], result of:
          0.05152227 = score(doc=2061,freq=2.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.44924968 = fieldWeight in 2061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.046875 = fieldNorm(doc=2061)
        0.01458023 = weight(_text_:und in 2061) [ClassicSimilarity], result of:
          0.01458023 = score(doc=2061,freq=14.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.38872904 = fieldWeight in 2061, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2061)
      0.083333336 = coord(2/24)
    
    Abstract
    Kooperative Katalogisierung in der Bibliotheksverbünden und steigende Zahlen retrokonvertierter Altdaten füfhren zu einem stetigen Anwachsen maschinenlesbar verfügbarer Titeldaten. Dieser Entewicklung aud ser Katalogisat- bzw. Datenseite entspricht eine ähnlich rasante Entwicklung auf der Seite der Zugangsmöglichkeiten, den Online-Publikumskatalogen. Immer mehr Katalogdaten von immer mehr Bibliotheken sind in immer mehr OPACs nachgewiesen. Mit dieser auch durch neue Zugriffsformen (Internet) verbesserten Verfügbarkeit hält die bibliothekarische Sacherschließung längst nicht mehr Schritt. In diesem Beitrag werden die Vorgehensweise und Ergebnisse des Projektes MILOS I vorgestellt, das an der Universitäts- und Landesbibliothek zur automatischen Indexierung bibliothekarischer Titeldaten und zur Anreicherung von Katalogdaten durchgeführt wurde.
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
  11. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.0054373713 = product of:
      0.06524845 = sum of:
        0.050726194 = weight(_text_:statistische in 1777) [ClassicSimilarity], result of:
          0.050726194 = score(doc=1777,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
        0.014522257 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
          0.014522257 = score(doc=1777,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3871834 = fieldWeight in 1777, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.083333336 = coord(2/24)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  12. Groß, T.: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2011) 0.01
    0.0054373713 = product of:
      0.06524845 = sum of:
        0.050726194 = weight(_text_:statistische in 1083) [ClassicSimilarity], result of:
          0.050726194 = score(doc=1083,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1083)
        0.014522257 = weight(_text_:und in 1083) [ClassicSimilarity], result of:
          0.014522257 = score(doc=1083,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3871834 = fieldWeight in 1083, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1083)
      0.083333336 = coord(2/24)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von intellektuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Studie befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer der Firma Recommind an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Schlagwörter umfassenden Standard-Thesaurus Wirtschaft wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Studie liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung an die hierzu von Stock und Lancaster vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Weiterhin wird die Belegungsbilanz des STW evaluiert und es erfolgt zusätzlich eine qualitative, stichprobenartige Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
  13. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.01
    0.005375268 = product of:
      0.064503215 = sum of:
        0.050726194 = weight(_text_:statistische in 1411) [ClassicSimilarity], result of:
          0.050726194 = score(doc=1411,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.013777021 = weight(_text_:und in 1411) [ClassicSimilarity], result of:
          0.013777021 = score(doc=1411,freq=18.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3673144 = fieldWeight in 1411, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.083333336 = coord(2/24)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  14. Mohrenweis, T.: Konzepte der automatischen Indexierung und vergleichende Analyse der Systeme STAIRS, STEINADLER/CONDOR, CTX und PASSAT/GOLEM (1984) 0.00
    0.004638655 = product of:
      0.05566386 = sum of:
        0.018184742 = weight(_text_:und in 5171) [ClassicSimilarity], result of:
          0.018184742 = score(doc=5171,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.4848303 = fieldWeight in 5171, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5171)
        0.037479118 = product of:
          0.074958235 = sum of:
            0.074958235 = weight(_text_:systeme in 5171) [ClassicSimilarity], result of:
              0.074958235 = score(doc=5171,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.82772934 = fieldWeight in 5171, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5171)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
  15. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.00
    0.004638655 = product of:
      0.05566386 = sum of:
        0.018184742 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.018184742 = score(doc=2059,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.037479118 = product of:
          0.074958235 = sum of:
            0.074958235 = weight(_text_:systeme in 2059) [ClassicSimilarity], result of:
              0.074958235 = score(doc=2059,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.82772934 = fieldWeight in 2059, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2059)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Imprint
    Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften
  16. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.00
    0.0039103134 = product of:
      0.04692376 = sum of:
        0.009092371 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.009092371 = score(doc=2562,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.24241515 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.03783139 = product of:
          0.07566278 = sum of:
            0.07566278 = weight(_text_:prozesse in 2562) [ClassicSimilarity], result of:
              0.07566278 = score(doc=2562,freq=4.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.6992981 = fieldWeight in 2562, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2562)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  17. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.00
    0.0030801012 = product of:
      0.036961213 = sum of:
        0.013777021 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.013777021 = score(doc=3194,freq=18.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.023184191 = product of:
          0.046368383 = sum of:
            0.046368383 = weight(_text_:systeme in 3194) [ClassicSimilarity], result of:
              0.046368383 = score(doc=3194,freq=6.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.51202476 = fieldWeight in 3194, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3194)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  18. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.00
    0.0030568368 = product of:
      0.03668204 = sum of:
        0.020619558 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.020619558 = score(doc=4,freq=28.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.01606248 = product of:
          0.03212496 = sum of:
            0.03212496 = weight(_text_:systeme in 4) [ClassicSimilarity], result of:
              0.03212496 = score(doc=4,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.35474116 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  19. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.00
    0.0029180064 = product of:
      0.035016075 = sum of:
        0.015908334 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.015908334 = score(doc=128,freq=24.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.42413816 = fieldWeight in 128, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.019107739 = product of:
          0.038215477 = sum of:
            0.038215477 = weight(_text_:prozesse in 128) [ClassicSimilarity], result of:
              0.038215477 = score(doc=128,freq=2.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3531989 = fieldWeight in 128, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=128)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  20. Qualität in der Inhaltserschließung (2021) 0.00
    0.0028528213 = product of:
      0.034233853 = sum of:
        0.019090002 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.019090002 = score(doc=753,freq=54.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.015143851 = product of:
          0.030287702 = sum of:
            0.030287702 = weight(_text_:systeme in 753) [ClassicSimilarity], result of:
              0.030287702 = score(doc=753,freq=4.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.33445317 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70

Years

Languages

  • d 162
  • e 25
  • a 1
  • m 1
  • nl 1
  • ru 1
  • sp 1
  • More… Less…

Types

  • a 139
  • x 31
  • el 22
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…