Search (131 results, page 1 of 7)

  • × theme_ss:"Automatisches Indexieren"
  1. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.03
    0.02698386 = product of:
      0.05396772 = sum of:
        0.008738665 = product of:
          0.026215993 = sum of:
            0.026215993 = weight(_text_:eine in 5344) [ClassicSimilarity], result of:
              0.026215993 = score(doc=5344,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23863006 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.33333334 = coord(1/3)
        0.04522906 = product of:
          0.067843586 = sum of:
            0.034075055 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.034075055 = score(doc=5344,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
            0.033768527 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.033768527 = score(doc=5344,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  2. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.02
    0.024801802 = product of:
      0.049603604 = sum of:
        0.01747733 = product of:
          0.052431986 = sum of:
            0.052431986 = weight(_text_:eine in 4251) [ClassicSimilarity], result of:
              0.052431986 = score(doc=4251,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.4772601 = fieldWeight in 4251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
        0.032126274 = product of:
          0.09637882 = sum of:
            0.09637882 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.09637882 = score(doc=4251,freq=4.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    29. 1.2011 14:56:29
    Footnote
    Enthält eine Darstellung des Kuhlen-Stemmers
  3. Knorz, G.: Automatische Indexierung (1994) 0.02
    0.017226014 = product of:
      0.03445203 = sum of:
        0.014980568 = product of:
          0.0449417 = sum of:
            0.0449417 = weight(_text_:eine in 4254) [ClassicSimilarity], result of:
              0.0449417 = score(doc=4254,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.4090801 = fieldWeight in 4254, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4254)
          0.33333334 = coord(1/3)
        0.019471461 = product of:
          0.05841438 = sum of:
            0.05841438 = weight(_text_:29 in 4254) [ClassicSimilarity], result of:
              0.05841438 = score(doc=4254,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.46638384 = fieldWeight in 4254, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4254)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    Enthält eine Darstellung des Kuhlen-Knorz-Stemmers
    Date
    29. 1.2011 17:56:21
  4. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.017138436 = product of:
      0.034276873 = sum of:
        0.014980568 = product of:
          0.0449417 = sum of:
            0.0449417 = weight(_text_:eine in 2051) [ClassicSimilarity], result of:
              0.0449417 = score(doc=2051,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.4090801 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
        0.019296303 = product of:
          0.057888906 = sum of:
            0.057888906 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.057888906 = score(doc=2051,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  5. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.01
    0.011425624 = product of:
      0.022851247 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 3581) [ClassicSimilarity], result of:
              0.029961135 = score(doc=3581,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
        0.012864201 = product of:
          0.038592603 = sum of:
            0.038592603 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.038592603 = score(doc=3581,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  6. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.01
    0.011425624 = product of:
      0.022851247 = sum of:
        0.009987045 = product of:
          0.029961135 = sum of:
            0.029961135 = weight(_text_:eine in 401) [ClassicSimilarity], result of:
              0.029961135 = score(doc=401,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27272007 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
        0.012864201 = product of:
          0.038592603 = sum of:
            0.038592603 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.038592603 = score(doc=401,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Date
    11. 9.2012 19:43:22
  7. Wolfekuhler, M.R.; Punch, W.F.: Finding salient features for personal Web pages categories (1997) 0.01
    0.011307265 = product of:
      0.04522906 = sum of:
        0.04522906 = product of:
          0.067843586 = sum of:
            0.034075055 = weight(_text_:29 in 2673) [ClassicSimilarity], result of:
              0.034075055 = score(doc=2673,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27205724 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
            0.033768527 = weight(_text_:22 in 2673) [ClassicSimilarity], result of:
              0.033768527 = score(doc=2673,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2708308 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1147-1156
  8. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.01
    0.010120506 = product of:
      0.020241013 = sum of:
        0.010592861 = product of:
          0.03177858 = sum of:
            0.03177858 = weight(_text_:eine in 5628) [ClassicSimilarity], result of:
              0.03177858 = score(doc=5628,freq=4.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.2892633 = fieldWeight in 5628, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.33333334 = coord(1/3)
        0.009648152 = product of:
          0.028944453 = sum of:
            0.028944453 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
              0.028944453 = score(doc=5628,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23214069 = fieldWeight in 5628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Fraunhofer-Informationszentrum Raum und Bau (IRB) wird Fachliteratur im Bereich Planen und Bauen bibliographisch erschlossen. Die daraus resultierenden Dokumente (Metadaten-Einträge) werden u.a. bei der Produktion der bibliographischen Datenbanken des IRB verwendet. In Abb. 1 ist ein Dokument dargestellt, das einen Zeitschriftenartikel beschreibt. Die Dokumente werden mit Deskriptoren von einer Nomenklatur (Schlagwortliste IRB) indexiert. Ein Deskriptor ist "eine Benennung., die für sich allein verwendbar, eindeutig zur Inhaltskennzeichnung geeignet und im betreffenden Dokumentationssystem zugelassen ist". Momentan wird die Indexierung intellektuell von menschlichen Experten durchgeführt. Die intellektuelle Indexierung ist zeitaufwendig und teuer. Eine Lösung des Problems besteht in der automatischen Indexierung, bei der die Zuordnung von Deskriptoren durch ein Computerprogramm erfolgt. Solche Computerprogramme werden im Folgenden auch als Klassifikatoren bezeichnet. In diesem Beitrag geht es um ein System zur automatischen Indexierung von deutschsprachigen Dokumenten im Bereich Bauwesen mit Deskriptoren aus der Schlagwortliste IRB.
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  9. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.01
    0.010048509 = product of:
      0.020097017 = sum of:
        0.008738665 = product of:
          0.026215993 = sum of:
            0.026215993 = weight(_text_:eine in 3497) [ClassicSimilarity], result of:
              0.026215993 = score(doc=3497,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23863006 = fieldWeight in 3497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.33333334 = coord(1/3)
        0.011358352 = product of:
          0.034075055 = sum of:
            0.034075055 = weight(_text_:29 in 3497) [ClassicSimilarity], result of:
              0.034075055 = score(doc=3497,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27205724 = fieldWeight in 3497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  10. Lepsky, K.: Automatisches Indexieren (2023) 0.01
    0.010048509 = product of:
      0.020097017 = sum of:
        0.008738665 = product of:
          0.026215993 = sum of:
            0.026215993 = weight(_text_:eine in 781) [ClassicSimilarity], result of:
              0.026215993 = score(doc=781,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23863006 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.33333334 = coord(1/3)
        0.011358352 = product of:
          0.034075055 = sum of:
            0.034075055 = weight(_text_:29 in 781) [ClassicSimilarity], result of:
              0.034075055 = score(doc=781,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.27205724 = fieldWeight in 781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=781)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
    Date
    24.11.2022 13:29:16
  11. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.01
    0.009331842 = product of:
      0.018663684 = sum of:
        0.012231583 = product of:
          0.036694746 = sum of:
            0.036694746 = weight(_text_:eine in 1767) [ClassicSimilarity], result of:
              0.036694746 = score(doc=1767,freq=12.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.3340125 = fieldWeight in 1767, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.33333334 = coord(1/3)
        0.0064321007 = product of:
          0.019296302 = sum of:
            0.019296302 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.019296302 = score(doc=1767,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  12. Schöneberg, U.; Gödert, W.: Erschließung mathematischer Publikationen mittels linguistischer Verfahren (2012) 0.01
    0.008613007 = product of:
      0.017226014 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 1055) [ClassicSimilarity], result of:
              0.02247085 = score(doc=1055,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.33333334 = coord(1/3)
        0.0097357305 = product of:
          0.02920719 = sum of:
            0.02920719 = weight(_text_:29 in 1055) [ClassicSimilarity], result of:
              0.02920719 = score(doc=1055,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23319192 = fieldWeight in 1055, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1055)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Zahl der mathematik-relevanten Publikationn steigt von Jahr zu Jahr an. Referatedienste wie da Zentralblatt MATH und Mathematical Reviews erfassen die bibliographischen Daten, erschließen die Arbeiten inhaltlich und machen sie - heute über Datenbanken, früher in gedruckter Form - für den Nutzer suchbar. Keywords sind ein wesentlicher Bestandteil der inhaltlichen Erschließung der Publikationen. Keywords sind meist keine einzelnen Wörter, sondern Mehrwortphrasen. Das legt die Anwendung linguistischer Methoden und Verfahren nahe. Die an der FH Köln entwickelte Software 'Lingo' wurde für die speziellen Anforderungen mathematischer Texte angepasst und sowohl zum Aufbau eines kontrollierten Vokabulars als auch zur Extraction von Keywords aus mathematischen Publikationen genutzt. Es ist geplant, über eine Verknüpfung von kontrolliertem Vokabular und der Mathematical Subject Classification Methoden für die automatische Klassifikation für den Referatedienst Zentralblatt MATH zu entwickeln und zu erproben.
    Date
    12. 9.2013 12:29:05
  13. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.008569218 = product of:
      0.017138436 = sum of:
        0.007490284 = product of:
          0.02247085 = sum of:
            0.02247085 = weight(_text_:eine in 1746) [ClassicSimilarity], result of:
              0.02247085 = score(doc=1746,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.20454004 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
        0.009648152 = product of:
          0.028944453 = sum of:
            0.028944453 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.028944453 = score(doc=1746,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Date
    22. 3.2015 9:17:30
  14. Groß, T.: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2011) 0.01
    0.007177506 = product of:
      0.014355012 = sum of:
        0.0062419036 = product of:
          0.01872571 = sum of:
            0.01872571 = weight(_text_:eine in 1083) [ClassicSimilarity], result of:
              0.01872571 = score(doc=1083,freq=2.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.17045005 = fieldWeight in 1083, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1083)
          0.33333334 = coord(1/3)
        0.008113109 = product of:
          0.024339326 = sum of:
            0.024339326 = weight(_text_:29 in 1083) [ClassicSimilarity], result of:
              0.024339326 = score(doc=1083,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.19432661 = fieldWeight in 1083, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1083)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von intellektuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Studie befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer der Firma Recommind an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Schlagwörter umfassenden Standard-Thesaurus Wirtschaft wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Studie liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung an die hierzu von Stock und Lancaster vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Weiterhin wird die Belegungsbilanz des STW evaluiert und es erfolgt zusätzlich eine qualitative, stichprobenartige Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
    Date
    19. 6.2015 18:00:29
  15. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.01
    0.006490487 = product of:
      0.025961949 = sum of:
        0.025961949 = product of:
          0.077885844 = sum of:
            0.077885844 = weight(_text_:29 in 5169) [ClassicSimilarity], result of:
              0.077885844 = score(doc=5169,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.6218451 = fieldWeight in 5169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5169)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Nachrichten für Dokumentation. 29(1978), S.92-96
  16. Salton, G.; Yang, C.S.: On the specification of term values in automatic indexing (1973) 0.01
    0.006490487 = product of:
      0.025961949 = sum of:
        0.025961949 = product of:
          0.077885844 = sum of:
            0.077885844 = weight(_text_:29 in 5476) [ClassicSimilarity], result of:
              0.077885844 = score(doc=5476,freq=2.0), product of:
                0.12524958 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03560566 = queryNorm
                0.6218451 = fieldWeight in 5476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5476)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Journal of documentation. 29(1973), S.351-372
  17. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.01
    0.0064321007 = product of:
      0.025728403 = sum of:
        0.025728403 = product of:
          0.077185206 = sum of:
            0.077185206 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.077185206 = score(doc=402,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  18. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.005628088 = product of:
      0.022512352 = sum of:
        0.022512352 = product of:
          0.067537054 = sum of:
            0.067537054 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.067537054 = score(doc=262,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    20.10.2000 12:22:23
  19. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.01
    0.005628088 = product of:
      0.022512352 = sum of:
        0.022512352 = product of:
          0.067537054 = sum of:
            0.067537054 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.067537054 = score(doc=6265,freq=2.0), product of:
                0.12468496 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03560566 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  20. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.005405647 = product of:
      0.021622589 = sum of:
        0.021622589 = product of:
          0.064867765 = sum of:
            0.064867765 = weight(_text_:eine in 3412) [ClassicSimilarity], result of:
              0.064867765 = score(doc=3412,freq=6.0), product of:
                0.1098604 = queryWeight, product of:
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.03560566 = queryNorm
                0.5904563 = fieldWeight in 3412, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0854754 = idf(docFreq=5493, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3412)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt

Years

Languages

  • d 93
  • e 33
  • nl 2
  • a 1
  • ja 1
  • ru 1
  • More… Less…

Types

  • a 98
  • x 19
  • el 13
  • m 7
  • p 2
  • d 1
  • r 1
  • s 1
  • More… Less…