Search (190 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. 7e Dag van het Document : 19 & 20 mei 1998, Congrescentrum De Reehorst, Ede ; proceedings (1998) 0.07
    0.06714894 = product of:
      0.26859576 = sum of:
        0.13549438 = weight(_text_:allgemeines in 2427) [ClassicSimilarity], result of:
          0.13549438 = score(doc=2427,freq=4.0), product of:
            0.15198945 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02663947 = queryNorm
            0.89147234 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.092207424 = weight(_text_:medien in 2427) [ClassicSimilarity], result of:
          0.092207424 = score(doc=2427,freq=4.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.73541105 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.020446971 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.020446971 = score(doc=2427,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
        0.020446971 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.020446971 = score(doc=2427,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34630734 = fieldWeight in 2427, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2427)
      0.25 = coord(4/16)
    
    BK
    06.00 (Information und Dokumentation: Allgemeines)
    05.38 (Neue elektronische Medien, Kommunikationswissenschaft)
    Classification
    06.00 (Information und Dokumentation: Allgemeines)
    05.38 (Neue elektronische Medien, Kommunikationswissenschaft)
  2. Zimmermann, H.: Automatische Indexierung: Entwicklung und Perspektiven (1983) 0.03
    0.031362362 = product of:
      0.12544945 = sum of:
        0.020033859 = weight(_text_:und in 2318) [ClassicSimilarity], result of:
          0.020033859 = score(doc=2318,freq=6.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.33931053 = fieldWeight in 2318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
        0.062210724 = weight(_text_:kommunikation in 2318) [ClassicSimilarity], result of:
          0.062210724 = score(doc=2318,freq=2.0), product of:
            0.13692978 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.02663947 = queryNorm
            0.45432574 = fieldWeight in 2318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
        0.020033859 = weight(_text_:und in 2318) [ClassicSimilarity], result of:
          0.020033859 = score(doc=2318,freq=6.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.33931053 = fieldWeight in 2318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
        0.023171015 = product of:
          0.04634203 = sum of:
            0.04634203 = weight(_text_:gesellschaft in 2318) [ClassicSimilarity], result of:
              0.04634203 = score(doc=2318,freq=2.0), product of:
                0.118182406 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02663947 = queryNorm
                0.39212292 = fieldWeight in 2318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2318)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Die Automatische Indexierung als ein Teilgebiet der Inhaltserschließung wird inzwischen in einer Reihe von Gebieten, vor allem in der Fachinformation und Kommunikation praktisch eingesetzt. Dabei dominieren äußerst einfache Systeme, die (noch) erhebliche Anpassungen des Benutzers an die jeweilige Systemstrategie voraussetzen. Unter Berücksichtigung des Konzepts der Einheit von Informationserschließung und -retrieval werden höherwertige ("intelligentere") Verfahren vorgestellt, die der Entlastung des Informationssuchenden wie auch der Verbesserung der Rechercheergebnisse dienen sollen
    Source
    Automatisierung in der Klassifikation. Proc. 7. Jahrestagung der Gesellschaft für Klassifikation (Teil 1), Königswinter, 5.-8.4.1983. Hrsg.: I. Dahlberg u.a
  3. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.03
    0.028299903 = product of:
      0.113199614 = sum of:
        0.0258636 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.0258636 = score(doc=401,freq=10.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.047035284 = product of:
          0.09407057 = sum of:
            0.09407057 = weight(_text_:kommunikationswissenschaften in 401) [ClassicSimilarity], result of:
              0.09407057 = score(doc=401,freq=4.0), product of:
                0.14159068 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02663947 = queryNorm
                0.6643839 = fieldWeight in 401, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
        0.0258636 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.0258636 = score(doc=401,freq=10.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.438048 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=401)
        0.014437122 = product of:
          0.028874245 = sum of:
            0.028874245 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.028874245 = score(doc=401,freq=2.0), product of:
                0.09328689 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02663947 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Content
    Bachelorarbeit im Studiengang Bibliothekswesen der Fakultät für Informations- und Kommunikationswissenschaften an der Fachhochschule Köln.
    Date
    11. 9.2012 19:43:22
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  4. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.03
    0.027433682 = product of:
      0.10973473 = sum of:
        0.032600246 = weight(_text_:medien in 2489) [ClassicSimilarity], result of:
          0.032600246 = score(doc=2489,freq=2.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.26000705 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.01912639 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.01912639 = score(doc=2489,freq=14.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.0388817 = weight(_text_:kommunikation in 2489) [ClassicSimilarity], result of:
          0.0388817 = score(doc=2489,freq=2.0), product of:
            0.13692978 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.02663947 = queryNorm
            0.28395358 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.01912639 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.01912639 = score(doc=2489,freq=14.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.25 = coord(4/16)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.33-38
  5. Lepsky, K.: Automatisierung in der Sacherschließung : Maschinelles Indexieren von Titeldaten (1996) 0.02
    0.023871247 = product of:
      0.12731332 = sum of:
        0.07824059 = weight(_text_:medien in 3418) [ClassicSimilarity], result of:
          0.07824059 = score(doc=3418,freq=2.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.62401694 = fieldWeight in 3418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
        0.024536366 = weight(_text_:und in 3418) [ClassicSimilarity], result of:
          0.024536366 = score(doc=3418,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41556883 = fieldWeight in 3418, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
        0.024536366 = weight(_text_:und in 3418) [ClassicSimilarity], result of:
          0.024536366 = score(doc=3418,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41556883 = fieldWeight in 3418, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3418)
      0.1875 = coord(3/16)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.63
    Source
    85. Deutscher Bibliothekartag in Göttingen 1995: Die Herausforderung der Bibliotheken durch elektronische Medien und neue Organisationsformen. Hrsg.: S. Wefers
  6. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.02
    0.02305064 = product of:
      0.12293674 = sum of:
        0.0144581925 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.0144581925 = score(doc=4157,freq=2.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.0144581925 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.0144581925 = score(doc=4157,freq=2.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.09402035 = sum of:
          0.05792754 = weight(_text_:gesellschaft in 4157) [ClassicSimilarity], result of:
            0.05792754 = score(doc=4157,freq=2.0), product of:
              0.118182406 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.02663947 = queryNorm
              0.49015367 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
          0.036092807 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
            0.036092807 = score(doc=4157,freq=2.0), product of:
              0.09328689 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02663947 = queryNorm
              0.38690117 = fieldWeight in 4157, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4157)
      0.1875 = coord(3/16)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  7. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.022208162 = product of:
      0.11844353 = sum of:
        0.032004572 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.032004572 = score(doc=782,freq=20.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.054434385 = weight(_text_:kommunikation in 782) [ClassicSimilarity], result of:
          0.054434385 = score(doc=782,freq=2.0), product of:
            0.13692978 = queryWeight, product of:
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.02663947 = queryNorm
            0.39753503 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.140109 = idf(docFreq=703, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.032004572 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.032004572 = score(doc=782,freq=20.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.1875 = coord(3/16)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  8. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.02
    0.021647757 = product of:
      0.1154547 = sum of:
        0.02862576 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.02862576 = score(doc=2059,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.05820319 = product of:
          0.11640638 = sum of:
            0.11640638 = weight(_text_:kommunikationswissenschaften in 2059) [ClassicSimilarity], result of:
              0.11640638 = score(doc=2059,freq=2.0), product of:
                0.14159068 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02663947 = queryNorm
                0.82213306 = fieldWeight in 2059, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2059)
          0.5 = coord(1/2)
        0.02862576 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.02862576 = score(doc=2059,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
      0.1875 = coord(3/16)
    
    Imprint
    Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften
  9. Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020) 0.02
    0.020421343 = product of:
      0.10891383 = sum of:
        0.060376503 = weight(_text_:medien in 71) [ClassicSimilarity], result of:
          0.060376503 = score(doc=71,freq=14.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.48153985 = fieldWeight in 71, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.024268666 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.024268666 = score(doc=71,freq=46.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
        0.024268666 = weight(_text_:und in 71) [ClassicSimilarity], result of:
          0.024268666 = score(doc=71,freq=46.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41103485 = fieldWeight in 71, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=71)
      0.1875 = coord(3/16)
    
    Abstract
    Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
    Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
  10. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.02
    0.019488089 = product of:
      0.10393648 = sum of:
        0.046103712 = weight(_text_:medien in 1081) [ClassicSimilarity], result of:
          0.046103712 = score(doc=1081,freq=4.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.36770552 = fieldWeight in 1081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.028916385 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.028916385 = score(doc=1081,freq=32.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
        0.028916385 = weight(_text_:und in 1081) [ClassicSimilarity], result of:
          0.028916385 = score(doc=1081,freq=32.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.48975256 = fieldWeight in 1081, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1081)
      0.1875 = coord(3/16)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  11. Bredack, J.: Terminologieextraktion von Mehrwortgruppen in kunsthistorischen Fachtexten (2013) 0.02
    0.019190663 = product of:
      0.076762654 = sum of:
        0.018245414 = weight(_text_:und in 1054) [ClassicSimilarity], result of:
          0.018245414 = score(doc=1054,freq=26.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.3090199 = fieldWeight in 1054, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1054)
        0.020577937 = product of:
          0.041155875 = sum of:
            0.041155875 = weight(_text_:kommunikationswissenschaften in 1054) [ClassicSimilarity], result of:
              0.041155875 = score(doc=1054,freq=4.0), product of:
                0.14159068 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02663947 = queryNorm
                0.29066795 = fieldWeight in 1054, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1054)
          0.5 = coord(1/2)
        0.01969389 = product of:
          0.03938778 = sum of:
            0.03938778 = weight(_text_:beziehungen in 1054) [ClassicSimilarity], result of:
              0.03938778 = score(doc=1054,freq=2.0), product of:
                0.16472405 = queryWeight, product of:
                  6.1834583 = idf(docFreq=247, maxDocs=44218)
                  0.02663947 = queryNorm
                0.23911373 = fieldWeight in 1054, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.1834583 = idf(docFreq=247, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1054)
          0.5 = coord(1/2)
        0.018245414 = weight(_text_:und in 1054) [ClassicSimilarity], result of:
          0.018245414 = score(doc=1054,freq=26.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.3090199 = fieldWeight in 1054, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1054)
      0.25 = coord(4/16)
    
    Abstract
    Mit Hilfe eines algorithmisch arbeitenden Verfahrens können Mehrwortgruppen aus elektronisch vorliegenden Texten identifiziert und extrahiert werden. Als Datengrundlage für diese Arbeit dienen kunsthistorische Lexikonartikel des Reallexikons zur Deutschen Kunstgeschichte. Die linguistisch, wörterbuchbasierte Open-Source-Software Lingo wurde in dieser Studie genutzt. Mit Lingo ist es möglich, auf Basis erstellter Wortmuster, bestimmte Wortfolgen aus elektronisch vorliegenden Daten algorithmisch zu identifizieren und zu extrahieren. Die erstellten Wortmuster basieren auf Wortklassen, mit denen die lexikalisierten Einträge in den Wörterbüchern getaggt sind und dadurch näher definiert werden. So wurden individuelle Wortklassen für Fachterminologie, Eigennamen, oder Adjektive vergeben. In der vorliegenden Arbeit werden zusätzlich Funktionswörter in die Musterbildung mit einbezogen. Dafür wurden neue Wortklassen definiert. Funktionswörter bestimmen Artikel, Konjunktionen und Präpositionen. Ziel war es fachterminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu extrahieren unter der gezielten Einbindung von Funktionswörtern. Anhand selbst gebildeter Kriterien, wurden die extrahierten Mehrwortgruppen qualitativ analysiert. Es konnte festgestellt werden, dass die Verwendung von Funktionswörtern fachterminologische Mehrwortgruppen erzeugt, die als potentielle Indexterme weitere Verwendung im Information Retrieval finden können.
    Mehrwortgruppen sind als lexikalische Einheit zu betrachten und bestehen aus mindestens zwei miteinander in Verbindung stehenden Begriffen. Durch die Ver-bindung mehrerer Fachwörter transportieren sie in Fachtexten aussagekräftige Informationen. Sie vermitteln eindeutige Informationen, da aus den resultierenden Beziehungen zwischen den in Verbindung stehenden Fachbegriffen die inhaltliche Bedeutung eines Fachtextes ersichtlich wird. Demzufolge ist es sinnvoll, Mehrwort-gruppen aus Fachtexten zu extrahieren, da diese die Inhalte eindeutig repräsentieren. So können Mehrwortgruppen für eine inhaltliche Erschließung genutzt und beispiels-weise als Indexterme im Information Retrieval bereitgestellt werden. Mehrwortgruppen enthalten Informationen eines Textes, die in natürlicher Sprache vorliegen. Zur Extraktion von Informationen eines elektronisch vorliegenden Textes kommen maschinelle Verfahren zum Einsatz, da Sprache Strukturen aufweist, die maschinell verarbeitet werden können. Eine mögliche Methode Mehrwortgruppen innerhalb von elektronisch vorliegenden Fachtexten zu identifizieren und extrahieren ist ein algorithmisches Verfahren. Diese Methode erkennt Wortfolgen durch das Bilden von Wortmustern, aus denen sich eine Mehrwortgruppe in einem Text zusammensetzt. Die Wortmuster repräsentieren somit die einzelnen Bestandteile einer Mehrwortgruppe. Bereits an mathematischen Fachtexten wurde dieses Verfahren untersucht und analysiert. Relevante Mehrwortgruppen, die ein mathematisches Konzept oder mathe-matischen Inhalt repräsentierten, konnten erfolgreich extrahiert werden. Zum Einsatz kam das Indexierungssystem Lingo, mit dessen Programmodul sequencer eine algorithmische Identifizierung und Extraktion von Mehrwortgruppen möglich ist. In der vorliegenden Arbeit wird dieses algorithmische Verfahren unter Einsatz der Software Lingo genutzt, um Mehrwortgruppen aus kunsthistorischen Fachtexten zu extrahieren. Als Datenquelle dienen kunsthistorische Lexikonartikel aus dem Reallexikon zur Deutschen Kunstgeschichte, welches in deutscher Sprache vorliegt. Es wird untersucht, ob positive Ergebnisse im Sinne von fachterminologischen Mehrwort-gruppen mit kunsthistorischen Inhalten erzeugt werden können. Dabei soll zusätzlich die Einbindung von Funktionswörtern innerhalb einer Mehrwortgruppe erfolgen. Funktionswörter definieren Artikel, Konjunktionen und Präpositionen, die für sich alleinstehend keine inhaltstragende Bedeutung besitzen, allerdings innerhalb einer Mehrwortgruppe syntaktische Funktionen erfüllen. Anhand der daraus resultierenden Ergebnisse wird analysiert, ob das Hinzufügen von Funktionswörtern innerhalb einer Mehrwortgruppe zu positiven Ergebnissen führt. Ziel soll es demnach sein, fach-terminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu erzeugen, unter Einbindung von Funktionswörtern. Bei der Extraktion fachterminologischer Mehrwortgruppen wird im Folgenden insbesondere auf die Erstellung von Wortmustern eingegangen, da diese die Basis liefern, mit welchen das Programmmodul sequencer Wortfolgen innerhalb der kunst-historischen Lexikonartikel identifiziert. Eine Einordung der Indexierungsergebnisse erfolgt anhand selbst gebildeter Kriterien, die definieren, was unter einer fach-terminologischen Mehrwortgruppe zu verstehen ist.
    Content
    Beiliegende CD enthält die Arbeitsergebnisse und Hilfsdateien
    Footnote
    Bachelorarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften, Fachhochschule Köln.
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften
  12. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.018957708 = product of:
      0.101107776 = sum of:
        0.0270488 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.0270488 = score(doc=3780,freq=28.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.0270488 = weight(_text_:und in 3780) [ClassicSimilarity], result of:
          0.0270488 = score(doc=3780,freq=28.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.45812157 = fieldWeight in 3780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.047010176 = sum of:
          0.02896377 = weight(_text_:gesellschaft in 3780) [ClassicSimilarity], result of:
            0.02896377 = score(doc=3780,freq=2.0), product of:
              0.118182406 = queryWeight, product of:
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.02663947 = queryNorm
              0.24507684 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.4363647 = idf(docFreq=1422, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.018046403 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.018046403 = score(doc=3780,freq=2.0), product of:
              0.09328689 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02663947 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.1875 = coord(3/16)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  13. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.02
    0.017981542 = product of:
      0.09590156 = sum of:
        0.054197755 = weight(_text_:allgemeines in 2543) [ClassicSimilarity], result of:
          0.054197755 = score(doc=2543,freq=4.0), product of:
            0.15198945 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02663947 = queryNorm
            0.35658893 = fieldWeight in 2543, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0208519 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.0208519 = score(doc=2543,freq=26.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.0208519 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.0208519 = score(doc=2543,freq=26.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.1875 = coord(3/16)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  14. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.02
    0.017785892 = product of:
      0.094858095 = sum of:
        0.030050788 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.030050788 = score(doc=7726,freq=6.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.030050788 = weight(_text_:und in 7726) [ClassicSimilarity], result of:
          0.030050788 = score(doc=7726,freq=6.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.5089658 = fieldWeight in 7726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7726)
        0.034756523 = product of:
          0.069513045 = sum of:
            0.069513045 = weight(_text_:gesellschaft in 7726) [ClassicSimilarity], result of:
              0.069513045 = score(doc=7726,freq=2.0), product of:
                0.118182406 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02663947 = queryNorm
                0.58818436 = fieldWeight in 7726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.09375 = fieldNorm(doc=7726)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  15. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.02
    0.017013215 = product of:
      0.09073715 = sum of:
        0.024790635 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.024790635 = score(doc=4310,freq=12.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
        0.041155875 = product of:
          0.08231175 = sum of:
            0.08231175 = weight(_text_:kommunikationswissenschaften in 4310) [ClassicSimilarity], result of:
              0.08231175 = score(doc=4310,freq=4.0), product of:
                0.14159068 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.02663947 = queryNorm
                0.5813359 = fieldWeight in 4310, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4310)
          0.5 = coord(1/2)
        0.024790635 = weight(_text_:und in 4310) [ClassicSimilarity], result of:
          0.024790635 = score(doc=4310,freq=12.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.41987535 = fieldWeight in 4310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4310)
      0.1875 = coord(3/16)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
  16. Schöning-Walter, C.: Automatische Erschließungsverfahren für Netzpublikationen : zum Stand der Arbeiten im Projekt PETRUS (2011) 0.02
    0.015914164 = product of:
      0.08487555 = sum of:
        0.052160393 = weight(_text_:medien in 1714) [ClassicSimilarity], result of:
          0.052160393 = score(doc=1714,freq=2.0), product of:
            0.12538216 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02663947 = queryNorm
            0.4160113 = fieldWeight in 1714, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=1714)
        0.016357576 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.016357576 = score(doc=1714,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.27704588 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1714)
        0.016357576 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.016357576 = score(doc=1714,freq=4.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.27704588 = fieldWeight in 1714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1714)
      0.1875 = coord(3/16)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Erschließungsprozesse zu automatisieren, um die Publikationen in ihrem Bestand und die bibliografischen Metadaten trotz der enorm anwachsenden Sammlung gedruckter und digitaler Medien so schnell wie möglich für die Nutzung zur Verfügung zu stellen.
  17. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.015474359 = product of:
      0.08252991 = sum of:
        0.054197755 = weight(_text_:allgemeines in 897) [ClassicSimilarity], result of:
          0.054197755 = score(doc=897,freq=4.0), product of:
            0.15198945 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02663947 = queryNorm
            0.35658893 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.014166077 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.014166077 = score(doc=897,freq=12.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.014166077 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.014166077 = score(doc=897,freq=12.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.1875 = coord(3/16)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  18. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.02
    0.015193541 = product of:
      0.08103222 = sum of:
        0.02024147 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3493,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.02024147 = weight(_text_:und in 3493) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3493,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
        0.040549275 = product of:
          0.08109855 = sum of:
            0.08109855 = weight(_text_:gesellschaft in 3493) [ClassicSimilarity], result of:
              0.08109855 = score(doc=3493,freq=8.0), product of:
                0.118182406 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02663947 = queryNorm
                0.6862151 = fieldWeight in 3493, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3493)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  19. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.02
    0.015193541 = product of:
      0.08103222 = sum of:
        0.02024147 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3495,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.02024147 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3495,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
        0.040549275 = product of:
          0.08109855 = sum of:
            0.08109855 = weight(_text_:gesellschaft in 3495) [ClassicSimilarity], result of:
              0.08109855 = score(doc=3495,freq=8.0), product of:
                0.118182406 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02663947 = queryNorm
                0.6862151 = fieldWeight in 3495, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3495)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  20. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.02
    0.015193541 = product of:
      0.08103222 = sum of:
        0.02024147 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3497,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.02024147 = weight(_text_:und in 3497) [ClassicSimilarity], result of:
          0.02024147 = score(doc=3497,freq=8.0), product of:
            0.059042845 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02663947 = queryNorm
            0.34282678 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
        0.040549275 = product of:
          0.08109855 = sum of:
            0.08109855 = weight(_text_:gesellschaft in 3497) [ClassicSimilarity], result of:
              0.08109855 = score(doc=3497,freq=8.0), product of:
                0.118182406 = queryWeight, product of:
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.02663947 = queryNorm
                0.6862151 = fieldWeight in 3497, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.4363647 = idf(docFreq=1422, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3497)
          0.5 = coord(1/2)
      0.1875 = coord(3/16)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber

Years

Languages

  • d 162
  • e 25
  • a 1
  • m 1
  • nl 1
  • ru 1
  • More… Less…

Types

  • a 138
  • x 31
  • el 21
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…