Search (248 results, page 1 of 13)

  • × theme_ss:"Automatisches Indexieren"
  1. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.06
    0.056769345 = product of:
      0.22707738 = sum of:
        0.020589724 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020589724 = score(doc=2470,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07748477 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07748477 = score(doc=2470,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.011364872 = weight(_text_:des in 2470) [ClassicSimilarity], result of:
          0.011364872 = score(doc=2470,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.019563513 = weight(_text_:der in 2470) [ClassicSimilarity], result of:
          0.019563513 = score(doc=2470,freq=14.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3917808 = fieldWeight in 2470, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07748477 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07748477 = score(doc=2470,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.020589724 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020589724 = score(doc=2470,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.25 = coord(6/24)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  2. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.04
    0.041113503 = product of:
      0.16445401 = sum of:
        0.007450224 = product of:
          0.02235067 = sum of:
            0.02235067 = weight(_text_:p in 2562) [ClassicSimilarity], result of:
              0.02235067 = score(doc=2562,freq=2.0), product of:
                0.08037606 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022354547 = queryNorm
                0.27807623 = fieldWeight in 2562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2562)
          0.33333334 = coord(1/3)
        0.012010672 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.012010672 = score(doc=2562,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.24241515 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.022965293 = weight(_text_:des in 2562) [ClassicSimilarity], result of:
          0.022965293 = score(doc=2562,freq=6.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.3709667 = fieldWeight in 2562, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.08273712 = weight(_text_:speziellen in 2562) [ClassicSimilarity], result of:
          0.08273712 = score(doc=2562,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.5350185 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.027280016 = weight(_text_:der in 2562) [ClassicSimilarity], result of:
          0.027280016 = score(doc=2562,freq=20.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.5463122 = fieldWeight in 2562, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
        0.012010672 = weight(_text_:und in 2562) [ClassicSimilarity], result of:
          0.012010672 = score(doc=2562,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.24241515 = fieldWeight in 2562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
      0.25 = coord(6/24)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  3. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.04
    0.041013934 = product of:
      0.32811147 = sum of:
        0.15496954 = weight(_text_:methodik in 58) [ClassicSimilarity], result of:
          0.15496954 = score(doc=58,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.95870143 = fieldWeight in 58, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.09375 = fieldNorm(doc=58)
        0.15496954 = weight(_text_:methodik in 58) [ClassicSimilarity], result of:
          0.15496954 = score(doc=58,freq=2.0), product of:
            0.16164526 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022354547 = queryNorm
            0.95870143 = fieldWeight in 58, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.09375 = fieldNorm(doc=58)
        0.018172394 = product of:
          0.03634479 = sum of:
            0.03634479 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.03634479 = score(doc=58,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.125 = coord(3/24)
    
    Date
    14. 6.2015 22:12:44
    Source
    Deutscher Dokumentartag 1985, Nürnberg, 1.-4.10.1985: Fachinformation: Methodik - Management - Markt; neue Entwicklungen, Berufe, Produkte. Bearb.: H. Strohl-Goebel
  4. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.04
    0.04045091 = product of:
      0.13868883 = sum of:
        0.014710008 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014710008 = score(doc=5344,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.018751081 = weight(_text_:des in 5344) [ClassicSimilarity], result of:
          0.018751081 = score(doc=5344,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 5344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.044820394 = weight(_text_:fragen in 5344) [ClassicSimilarity], result of:
          0.044820394 = score(doc=5344,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.39378253 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.024399988 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.024399988 = score(doc=5344,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010696787 = product of:
          0.021393575 = sum of:
            0.021393575 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.021393575 = score(doc=5344,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
        0.014710008 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014710008 = score(doc=5344,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010600563 = product of:
          0.021201126 = sum of:
            0.021201126 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.021201126 = score(doc=5344,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  5. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.04
    0.038267735 = product of:
      0.15307094 = sum of:
        0.010643179 = product of:
          0.031929534 = sum of:
            0.031929534 = weight(_text_:p in 4040) [ClassicSimilarity], result of:
              0.031929534 = score(doc=4040,freq=2.0), product of:
                0.08037606 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022354547 = queryNorm
                0.39725178 = fieldWeight in 4040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4040)
          0.33333334 = coord(1/3)
        0.0210143 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.0210143 = score(doc=4040,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.42413816 = fieldWeight in 4040, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.018941455 = weight(_text_:des in 4040) [ClassicSimilarity], result of:
          0.018941455 = score(doc=4040,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.30596817 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.06402914 = weight(_text_:fragen in 4040) [ClassicSimilarity], result of:
          0.06402914 = score(doc=4040,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.5625465 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.017428562 = weight(_text_:der in 4040) [ClassicSimilarity], result of:
          0.017428562 = score(doc=4040,freq=4.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.34902605 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
        0.0210143 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.0210143 = score(doc=4040,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.42413816 = fieldWeight in 4040, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4040)
      0.25 = coord(6/24)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  6. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.036097437 = product of:
      0.14438975 = sum of:
        0.020803094 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.020803094 = score(doc=5195,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.018751081 = weight(_text_:des in 5195) [ClassicSimilarity], result of:
          0.018751081 = score(doc=5195,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.044820394 = weight(_text_:fragen in 5195) [ClassicSimilarity], result of:
          0.044820394 = score(doc=5195,freq=2.0), product of:
            0.11382017 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022354547 = queryNorm
            0.39378253 = fieldWeight in 5195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.02861152 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.02861152 = score(doc=5195,freq=22.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.020803094 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.020803094 = score(doc=5195,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.010600563 = product of:
          0.021201126 = sum of:
            0.021201126 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.021201126 = score(doc=5195,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  7. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.04
    0.035061713 = product of:
      0.14024685 = sum of:
        0.0063859066 = product of:
          0.019157719 = sum of:
            0.019157719 = weight(_text_:p in 1055) [ClassicSimilarity], result of:
              0.019157719 = score(doc=1055,freq=2.0), product of:
                0.08037606 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23835106 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.33333334 = coord(1/3)
        0.017831223 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.017831223 = score(doc=1055,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.07091753 = weight(_text_:speziellen in 1055) [ClassicSimilarity], result of:
          0.07091753 = score(doc=1055,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.4585873 = fieldWeight in 1055, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.018112293 = weight(_text_:der in 1055) [ClassicSimilarity], result of:
          0.018112293 = score(doc=1055,freq=12.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.36271852 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
        0.009168675 = product of:
          0.01833735 = sum of:
            0.01833735 = weight(_text_:29 in 1055) [ClassicSimilarity], result of:
              0.01833735 = score(doc=1055,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.23319192 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.5 = coord(1/2)
        0.017831223 = weight(_text_:und in 1055) [ClassicSimilarity], result of:
          0.017831223 = score(doc=1055,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.35989314 = fieldWeight in 1055, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1055)
      0.25 = coord(6/24)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Date
    12. 9.2013 12:29:05
    Footnote
    Vortrag anlässlich der DMV-Tagung in Saarbrücken, 17.-20.09.2012.
    Type
    p
  8. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.03
    0.032685876 = product of:
      0.15689221 = sum of:
        0.020803094 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.020803094 = score(doc=4310,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.013259017 = weight(_text_:des in 4310) [ClassicSimilarity], result of:
          0.013259017 = score(doc=4310,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.2141777 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.08273712 = weight(_text_:speziellen in 4310) [ClassicSimilarity], result of:
          0.08273712 = score(doc=4310,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.5350185 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.019289885 = weight(_text_:der in 4310) [ClassicSimilarity], result of:
          0.019289885 = score(doc=4310,freq=10.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.38630107 = fieldWeight in 4310, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.020803094 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.020803094 = score(doc=4310,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
      0.20833333 = coord(5/24)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.028281642 = product of:
      0.13575189 = sum of:
        0.016277606 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.016277606 = score(doc=6386,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.011364872 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.011364872 = score(doc=6386,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.07091753 = weight(_text_:speziellen in 6386) [ClassicSimilarity], result of:
          0.07091753 = score(doc=6386,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.4585873 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020914275 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020914275 = score(doc=6386,freq=16.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.016277606 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.016277606 = score(doc=6386,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.20833333 = coord(5/24)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  10. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.03
    0.026536496 = product of:
      0.12737519 = sum of:
        0.018198915 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.018198915 = score(doc=3194,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.01339363 = weight(_text_:des in 3194) [ClassicSimilarity], result of:
          0.01339363 = score(doc=3194,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.21635216 = fieldWeight in 3194, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.059097942 = weight(_text_:speziellen in 3194) [ClassicSimilarity], result of:
          0.059097942 = score(doc=3194,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.38215607 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.018485783 = weight(_text_:der in 3194) [ClassicSimilarity], result of:
          0.018485783 = score(doc=3194,freq=18.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.37019804 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.018198915 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.018198915 = score(doc=3194,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.20833333 = coord(5/24)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
    Content
    Schriftliche Hausarbeit (Masterarbeit) zur Erlangung des Grades eines Master of Arts An der Universität Trier Fachbereich II Studiengang Computerlinguistik.
  11. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.025692014 = product of:
      0.12332167 = sum of:
        0.017158102 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5863,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.009470727 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.009470727 = score(doc=5863,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.059097942 = weight(_text_:speziellen in 5863) [ClassicSimilarity], result of:
          0.059097942 = score(doc=5863,freq=2.0), product of:
            0.15464348 = queryWeight, product of:
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.022354547 = queryNorm
            0.38215607 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9177637 = idf(docFreq=118, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020436801 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.020436801 = score(doc=5863,freq=22.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.017158102 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.017158102 = score(doc=5863,freq=16.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.20833333 = coord(5/24)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  12. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.02
    0.023106039 = product of:
      0.110908985 = sum of:
        0.0174979 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.0174979 = score(doc=2543,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.010714904 = weight(_text_:des in 2543) [ClassicSimilarity], result of:
          0.010714904 = score(doc=2543,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.17308173 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.019718168 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.019718168 = score(doc=2543,freq=32.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.045480113 = weight(_text_:allgemeines in 2543) [ClassicSimilarity], result of:
          0.045480113 = score(doc=2543,freq=4.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.35658893 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0174979 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.0174979 = score(doc=2543,freq=26.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.20833333 = coord(5/24)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  13. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.022616241 = product of:
      0.10855796 = sum of:
        0.011887482 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.011887482 = score(doc=897,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.015153162 = weight(_text_:des in 897) [ClassicSimilarity], result of:
          0.015153162 = score(doc=897,freq=8.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.24477452 = fieldWeight in 897, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.024149725 = weight(_text_:der in 897) [ClassicSimilarity], result of:
          0.024149725 = score(doc=897,freq=48.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4836247 = fieldWeight in 897, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.045480113 = weight(_text_:allgemeines in 897) [ClassicSimilarity], result of:
          0.045480113 = score(doc=897,freq=4.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.35658893 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.011887482 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.011887482 = score(doc=897,freq=12.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.20833333 = coord(5/24)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Content
    Masterarbeit, ausgearbeitet von Zeljko Carevic zur Erlangung des akademischen Grades Master of Science vorgelegt an der Fachhochschule Köln Campus Gummersbach im Studiengang Medieninformatik. Vgl.. unter: http://opus.bibl.fh-koeln.de/volltexte/2012/376/pdf/Carevic.pdf.
  14. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.02
    0.020401245 = product of:
      0.097925976 = sum of:
        0.016985655 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3497,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.018751081 = weight(_text_:des in 3497) [ClassicSimilarity], result of:
          0.018751081 = score(doc=3497,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 3497, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.034506794 = weight(_text_:der in 3497) [ClassicSimilarity], result of:
          0.034506794 = score(doc=3497,freq=32.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.69103634 = fieldWeight in 3497, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.010696787 = product of:
          0.021393575 = sum of:
            0.021393575 = weight(_text_:29 in 3497) [ClassicSimilarity], result of:
              0.021393575 = score(doc=3497,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.27205724 = fieldWeight in 3497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.5 = coord(1/2)
        0.016985655 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3497,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
      0.20833333 = coord(5/24)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  15. Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.02
    0.020177454 = product of:
      0.09685178 = sum of:
        0.0218387 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.0218387 = score(doc=365,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.011364872 = weight(_text_:des in 365) [ClassicSimilarity], result of:
          0.011364872 = score(doc=365,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.18358089 = fieldWeight in 365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.024524162 = weight(_text_:der in 365) [ClassicSimilarity], result of:
          0.024524162 = score(doc=365,freq=22.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4911232 = fieldWeight in 365, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.0218387 = weight(_text_:und in 365) [ClassicSimilarity], result of:
          0.0218387 = score(doc=365,freq=18.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.4407773 = fieldWeight in 365, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=365)
        0.01728535 = product of:
          0.0345707 = sum of:
            0.0345707 = weight(_text_:deutschland in 365) [ClassicSimilarity], result of:
              0.0345707 = score(doc=365,freq=2.0), product of:
                0.10797144 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022354547 = queryNorm
                0.32018375 = fieldWeight in 365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=365)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
    Theme
    Geschichte der Sacherschließung
  16. Biebricher, P.; Fuhr, N.; Knorz, G.; Lustig, G.; Schwandtner, M.: Entwicklung und Anwendung des automatischen Indexierungssystems AIR/PHYS (1988) 0.02
    0.020123638 = product of:
      0.09659347 = sum of:
        0.008514542 = product of:
          0.025543625 = sum of:
            0.025543625 = weight(_text_:p in 2320) [ClassicSimilarity], result of:
              0.025543625 = score(doc=2320,freq=2.0), product of:
                0.08037606 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022354547 = queryNorm
                0.31780142 = fieldWeight in 2320, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2320)
          0.33333334 = coord(1/3)
        0.016811438 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.016811438 = score(doc=2320,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.030306324 = weight(_text_:des in 2320) [ClassicSimilarity], result of:
          0.030306324 = score(doc=2320,freq=8.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.48954904 = fieldWeight in 2320, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.024149725 = weight(_text_:der in 2320) [ClassicSimilarity], result of:
          0.024149725 = score(doc=2320,freq=12.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.4836247 = fieldWeight in 2320, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
        0.016811438 = weight(_text_:und in 2320) [ClassicSimilarity], result of:
          0.016811438 = score(doc=2320,freq=6.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.33931053 = fieldWeight in 2320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2320)
      0.20833333 = coord(5/24)
    
    Abstract
    Seit 1985 wird das automatische Indexierungssystem AIR/PHYS in der Inputproduktion der Physik-Datenbank PHYS des Fachinformationszentrums Karlsruhe angewandt. Das AIR/PHYS-System teilt englischsprachigen Referatetexten Deskriptoren aus einem vorgeschriebenen Vokabular zu. In der vorliegenden Arbeit werden der zugrundeliegende fehlertolerierende Ansatz, der Aufbau des Systems und die wichtigsten Verfahren zur Entwicklung eines großen Indexierungswörterbuches beschrieben. Ferner werden Probleme der Anwendung und Weiterentwicklung des Systems behandelt
  17. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.02
    0.019936943 = product of:
      0.09569733 = sum of:
        0.016985655 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3493,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.018751081 = weight(_text_:des in 3493) [ClassicSimilarity], result of:
          0.018751081 = score(doc=3493,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 3493, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.032278147 = weight(_text_:der in 3493) [ClassicSimilarity], result of:
          0.032278147 = score(doc=3493,freq=28.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.6464053 = fieldWeight in 3493, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.010696787 = product of:
          0.021393575 = sum of:
            0.021393575 = weight(_text_:29 in 3493) [ClassicSimilarity], result of:
              0.021393575 = score(doc=3493,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.27205724 = fieldWeight in 3493, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3493)
          0.5 = coord(1/2)
        0.016985655 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3493,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
      0.20833333 = coord(5/24)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  18. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.02
    0.019936943 = product of:
      0.09569733 = sum of:
        0.016985655 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3495,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.018751081 = weight(_text_:des in 3495) [ClassicSimilarity], result of:
          0.018751081 = score(doc=3495,freq=4.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.302893 = fieldWeight in 3495, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.032278147 = weight(_text_:der in 3495) [ClassicSimilarity], result of:
          0.032278147 = score(doc=3495,freq=28.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.6464053 = fieldWeight in 3495, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.010696787 = product of:
          0.021393575 = sum of:
            0.021393575 = weight(_text_:29 in 3495) [ClassicSimilarity], result of:
              0.021393575 = score(doc=3495,freq=2.0), product of:
                0.0786363 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022354547 = queryNorm
                0.27205724 = fieldWeight in 3495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3495)
          0.5 = coord(1/2)
        0.016985655 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.016985655 = score(doc=3495,freq=8.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
      0.20833333 = coord(5/24)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  19. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.02
    0.018831918 = product of:
      0.09039321 = sum of:
        0.021703474 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.021703474 = score(doc=401,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.015153162 = weight(_text_:des in 401) [ClassicSimilarity], result of:
          0.015153162 = score(doc=401,freq=2.0), product of:
            0.061906617 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022354547 = queryNorm
            0.24477452 = fieldWeight in 401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.019718168 = weight(_text_:der in 401) [ClassicSimilarity], result of:
          0.019718168 = score(doc=401,freq=8.0), product of:
            0.049934845 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022354547 = queryNorm
            0.3948779 = fieldWeight in 401, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.021703474 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.021703474 = score(doc=401,freq=10.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.01211493 = product of:
          0.02422986 = sum of:
            0.02422986 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.02422986 = score(doc=401,freq=2.0), product of:
                0.07828181 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022354547 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  20. 7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998) 0.02
    0.018502062 = product of:
      0.1480165 = sum of:
        0.017158102 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.017158102 = score(doc=2427,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.113700286 = weight(_text_:allgemeines in 2427) [ClassicSimilarity], result of:
          0.113700286 = score(doc=2427,freq=4.0), product of:
            0.12754214 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.022354547 = queryNorm
            0.89147234 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.017158102 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.017158102 = score(doc=2427,freq=4.0), product of:
            0.04954588 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022354547 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
      0.125 = coord(3/24)
    
    BK
    06.00 (Information und Dokumentation: Allgemeines)
    Classification
    06.00 (Information und Dokumentation: Allgemeines)

Years

Languages

  • d 171
  • e 69
  • nl 3
  • ru 2
  • a 1
  • f 1
  • ja 1
  • m 1
  • More… Less…

Types

  • a 191
  • x 31
  • el 22
  • m 11
  • s 8
  • d 2
  • p 2
  • h 1
  • r 1
  • More… Less…