Search (191 results, page 1 of 10)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.17
    0.17334275 = product of:
      0.62403387 = sum of:
        0.048002608 = product of:
          0.14400782 = sum of:
            0.14400782 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.14400782 = score(doc=306,freq=2.0), product of:
                0.21962866 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025905682 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.14400782 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14400782 = score(doc=306,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14400782 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14400782 = score(doc=306,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14400782 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14400782 = score(doc=306,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.14400782 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.14400782 = score(doc=306,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.2777778 = coord(5/18)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.15
    0.15263826 = product of:
      0.45791477 = sum of:
        0.03428758 = product of:
          0.10286273 = sum of:
            0.10286273 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.10286273 = score(doc=1000,freq=2.0), product of:
                0.21962866 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.025905682 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.10286273 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10286273 = score(doc=1000,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012176264 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012176264 = score(doc=1000,freq=6.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10286273 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10286273 = score(doc=1000,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10286273 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10286273 = score(doc=1000,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10286273 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10286273 = score(doc=1000,freq=2.0), product of:
            0.21962866 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.025905682 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.33333334 = coord(6/18)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.05
    0.048389137 = product of:
      0.17420088 = sum of:
        0.022007287 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.022007287 = score(doc=5812,freq=10.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.019906014 = product of:
          0.03981203 = sum of:
            0.03981203 = weight(_text_:bibliothekswesen in 5812) [ClassicSimilarity], result of:
              0.03981203 = score(doc=5812,freq=2.0), product of:
                0.11547904 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.025905682 = queryNorm
                0.34475547 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
        0.040656574 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.040656574 = score(doc=5812,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.040656574 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.040656574 = score(doc=5812,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.05097443 = weight(_text_:automatisches in 5812) [ClassicSimilarity], result of:
          0.05097443 = score(doc=5812,freq=2.0), product of:
            0.13066888 = queryWeight, product of:
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.025905682 = queryNorm
            0.39010382 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.2777778 = coord(5/18)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
    Theme
    Automatisches Indexieren
  4. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.041439913 = product of:
      0.18647961 = sum of:
        0.019883756 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.019883756 = score(doc=193,freq=16.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.08037304 = product of:
          0.16074608 = sum of:
            0.16074608 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.16074608 = score(doc=193,freq=2.0), product of:
                0.27455553 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.025905682 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.08037304 = product of:
          0.16074608 = sum of:
            0.16074608 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.16074608 = score(doc=193,freq=2.0), product of:
                0.27455553 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.025905682 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.0058497707 = product of:
          0.017549312 = sum of:
            0.017549312 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.017549312 = score(doc=193,freq=2.0), product of:
                0.090717286 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.025905682 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  5. Krause, J.: Heterogenität und Integration : Zur Weiterentwicklung von Inhaltserschließung und Retrieval in sich veränderten Kontexten (2001) 0.04
    0.04075922 = product of:
      0.18341649 = sum of:
        0.017219838 = weight(_text_:und in 6071) [ClassicSimilarity], result of:
          0.017219838 = score(doc=6071,freq=12.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.29991096 = fieldWeight in 6071, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
        0.041069344 = weight(_text_:informationswissenschaft in 6071) [ClassicSimilarity], result of:
          0.041069344 = score(doc=6071,freq=4.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.35193008 = fieldWeight in 6071, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
        0.041069344 = weight(_text_:informationswissenschaft in 6071) [ClassicSimilarity], result of:
          0.041069344 = score(doc=6071,freq=4.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.35193008 = fieldWeight in 6071, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
        0.084057964 = weight(_text_:informationspraxis in 6071) [ClassicSimilarity], result of:
          0.084057964 = score(doc=6071,freq=4.0), product of:
            0.16695212 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.025905682 = queryNorm
            0.50348544 = fieldWeight in 6071, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
      0.22222222 = coord(4/18)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006) 0.03
    0.02929027 = product of:
      0.10544497 = sum of:
        0.012176264 = weight(_text_:und in 6061) [ClassicSimilarity], result of:
          0.012176264 = score(doc=6061,freq=6.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.21206908 = fieldWeight in 6061, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.014218582 = product of:
          0.028437164 = sum of:
            0.028437164 = weight(_text_:bibliothekswesen in 6061) [ClassicSimilarity], result of:
              0.028437164 = score(doc=6061,freq=2.0), product of:
                0.11547904 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.025905682 = queryNorm
                0.24625391 = fieldWeight in 6061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6061)
          0.5 = coord(1/2)
        0.02904041 = weight(_text_:informationswissenschaft in 6061) [ClassicSimilarity], result of:
          0.02904041 = score(doc=6061,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 6061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.02904041 = weight(_text_:informationswissenschaft in 6061) [ClassicSimilarity], result of:
          0.02904041 = score(doc=6061,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 6061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.020969298 = weight(_text_:indexing in 6061) [ClassicSimilarity], result of:
          0.020969298 = score(doc=6061,freq=2.0), product of:
            0.099163525 = queryWeight, product of:
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.025905682 = queryNorm
            0.21146181 = fieldWeight in 6061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
      0.2777778 = coord(5/18)
    
    Abstract
    The middle of the 1990s are coined by the increased enthusiasm for the possibilities of the WWW, which has only recently deviated - at least in relation to scientific information - for the differentiated measuring of its advantages and disadvantages. Web Information Retrieval originated as a specialized discipline with great commercial significance (for an overview see Lewandowski 2005). Besides the new technological structure that enables the indexing and searching (in seconds) of unimaginable amounts of data worldwide, new assessment processes for the ranking of search results are being developed, which use the link structures of the Web. They are the main innovation with respect to the traditional "mother discipline" of Information Retrieval. From the beginning, link structures of Web pages are applied to commercial search engines in a wide array of variations. From the perspective of scientific information, link topology based approaches were in essence trying to solve a self-created problem: on the one hand, it quickly became clear that the openness of the Web led to an up-tonow unknown increase in available information, but this also caused the quality of the Web pages searched to become a problem - and with it the relevance of the results. The gatekeeper function of traditional information providers, which narrows down every user query to focus on high-quality sources was lacking. Therefore, the recognition of the "authoritativeness" of the Web pages by general search engines such as Google was one of the most important factors for their success.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  7. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.02
    0.02075318 = product of:
      0.09338931 = sum of:
        0.021089906 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.021089906 = score(doc=2460,freq=18.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.3673144 = fieldWeight in 2460, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.014218582 = product of:
          0.028437164 = sum of:
            0.028437164 = weight(_text_:bibliothekswesen in 2460) [ClassicSimilarity], result of:
              0.028437164 = score(doc=2460,freq=2.0), product of:
                0.11547904 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.025905682 = queryNorm
                0.24625391 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
        0.02904041 = weight(_text_:informationswissenschaft in 2460) [ClassicSimilarity], result of:
          0.02904041 = score(doc=2460,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.02904041 = weight(_text_:informationswissenschaft in 2460) [ClassicSimilarity], result of:
          0.02904041 = score(doc=2460,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
      0.22222222 = coord(4/18)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
  8. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.02
    0.016789706 = product of:
      0.100738235 = sum of:
        0.01859955 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.01859955 = score(doc=788,freq=14.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.041069344 = weight(_text_:informationswissenschaft in 788) [ClassicSimilarity], result of:
          0.041069344 = score(doc=788,freq=4.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.35193008 = fieldWeight in 788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.041069344 = weight(_text_:informationswissenschaft in 788) [ClassicSimilarity], result of:
          0.041069344 = score(doc=788,freq=4.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.35193008 = fieldWeight in 788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
      0.16666667 = coord(3/18)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.02
    0.015336074 = product of:
      0.09201644 = sum of:
        0.02231946 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.02231946 = score(doc=28,freq=14.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.034848493 = weight(_text_:informationswissenschaft in 28) [ClassicSimilarity], result of:
          0.034848493 = score(doc=28,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.29862255 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.034848493 = weight(_text_:informationswissenschaft in 28) [ClassicSimilarity], result of:
          0.034848493 = score(doc=28,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.29862255 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
      0.16666667 = coord(3/18)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
  10. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.013385257 = product of:
      0.08031154 = sum of:
        0.022230715 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.022230715 = score(doc=4321,freq=20.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.02904041 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.02904041 = score(doc=4321,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.02904041 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.02904041 = score(doc=4321,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.16666667 = coord(3/18)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  11. Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen (2018) 0.01
    0.013066293 = product of:
      0.117596634 = sum of:
        0.022495901 = weight(_text_:und in 4272) [ClassicSimilarity], result of:
          0.022495901 = score(doc=4272,freq=8.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.39180204 = fieldWeight in 4272, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
        0.09510073 = weight(_text_:informationspraxis in 4272) [ClassicSimilarity], result of:
          0.09510073 = score(doc=4272,freq=2.0), product of:
            0.16695212 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.025905682 = queryNorm
            0.5696288 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0625 = fieldNorm(doc=4272)
      0.11111111 = coord(2/18)
    
    Abstract
    Heutzutage sind Informationsräume häufig durch die Heterogenität der in ihr enthaltenen Ressourcen geprägt, deren inhaltliche Beschreibungen aus unterschiedlichen Quellen stammen und auf der Basis verschiedener, sich strukturell und typologisch unterscheidender Erschließungsinstrumente erstellt wurden. Einzelne Klassifikationen können in solchen Räumen nur bedingt Suchunterstützung bieten, da sie stets nur auf einen Teilbestand zugreifen. Dieser Artikel beschreibt ausgehend von den Charakteristiken von Indexierungssprachen, wie durch semantische Interoperabilität eine Verbesserung der Retrievalsituation erreicht werden kann.
    Series
    Bibliotheks- und Informationspraxis; 53
  12. Prongué, N.; Schneider, R.: Modelling library linked data in practice (2015) 0.01
    0.012906848 = product of:
      0.11616164 = sum of:
        0.05808082 = weight(_text_:informationswissenschaft in 2985) [ClassicSimilarity], result of:
          0.05808082 = score(doc=2985,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.49770427 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2985)
        0.05808082 = weight(_text_:informationswissenschaft in 2985) [ClassicSimilarity], result of:
          0.05808082 = score(doc=2985,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.49770427 = fieldWeight in 2985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2985)
      0.11111111 = coord(2/18)
    
    Series
    Schriften zur Informationswissenschaft; Bd.66
  13. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.01
    0.012338934 = product of:
      0.1110504 = sum of:
        0.027837258 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.027837258 = score(doc=368,freq=16.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.08321314 = weight(_text_:informationspraxis in 368) [ClassicSimilarity], result of:
          0.08321314 = score(doc=368,freq=2.0), product of:
            0.16695212 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.025905682 = queryNorm
            0.4984252 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
      0.11111111 = coord(2/18)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.011123698 = product of:
      0.06674219 = sum of:
        0.020277532 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.020277532 = score(doc=4302,freq=26.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.023232328 = weight(_text_:informationswissenschaft in 4302) [ClassicSimilarity], result of:
          0.023232328 = score(doc=4302,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.1990817 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.023232328 = weight(_text_:informationswissenschaft in 4302) [ClassicSimilarity], result of:
          0.023232328 = score(doc=4302,freq=2.0), product of:
            0.11669745 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.025905682 = queryNorm
            0.1990817 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.16666667 = coord(3/18)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  15. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.01
    0.009074298 = product of:
      0.081668675 = sum of:
        0.022230715 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.022230715 = score(doc=373,freq=20.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.059437957 = weight(_text_:informationspraxis in 373) [ClassicSimilarity], result of:
          0.059437957 = score(doc=373,freq=2.0), product of:
            0.16695212 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.025905682 = queryNorm
            0.35601798 = fieldWeight in 373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
      0.11111111 = coord(2/18)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Series
    Bibliotheks- und Informationspraxis; 70
  16. Ahmed, M.; Mukhopadhyay, M.; Mukhopadhyay, P.: Automated knowledge organization : AI ML based subject indexing system for libraries (2023) 0.01
    0.008705434 = product of:
      0.078348905 = sum of:
        0.036410306 = weight(_text_:automatisches in 977) [ClassicSimilarity], result of:
          0.036410306 = score(doc=977,freq=2.0), product of:
            0.13066888 = queryWeight, product of:
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.025905682 = queryNorm
            0.27864558 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.0390625 = fieldNorm(doc=977)
        0.041938595 = weight(_text_:indexing in 977) [ClassicSimilarity], result of:
          0.041938595 = score(doc=977,freq=8.0), product of:
            0.099163525 = queryWeight, product of:
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.025905682 = queryNorm
            0.42292362 = fieldWeight in 977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.0390625 = fieldNorm(doc=977)
      0.11111111 = coord(2/18)
    
    Abstract
    The research study as reported here is an attempt to explore the possibilities of an AI/ML-based semi-automated indexing system in a library setup to handle large volumes of documents. It uses the Python virtual environment to install and configure an open source AI environment (named Annif) to feed the LOD (Linked Open Data) dataset of Library of Congress Subject Headings (LCSH) as a standard KOS (Knowledge Organisation System). The framework deployed the Turtle format of LCSH after cleaning the file with Skosify, applied an array of backend algorithms (namely TF-IDF, Omikuji, and NN-Ensemble) to measure relative performance, and selected Snowball as an analyser. The training of Annif was conducted with a large set of bibliographic records populated with subject descriptors (MARC tag 650$a) and indexed by trained LIS professionals. The training dataset is first treated with MarcEdit to export it in a format suitable for OpenRefine, and then in OpenRefine it undergoes many steps to produce a bibliographic record set suitable to train Annif. The framework, after training, has been tested with a bibliographic dataset to measure indexing efficiencies, and finally, the automated indexing framework is integrated with data wrangling software (OpenRefine) to produce suggested headings on a mass scale. The entire framework is based on open-source software, open datasets, and open standards.
    Theme
    Automatisches Klassifizieren
  17. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.01
    0.008670834 = product of:
      0.07803751 = sum of:
        0.01859955 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.01859955 = score(doc=367,freq=14.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.059437957 = weight(_text_:informationspraxis in 367) [ClassicSimilarity], result of:
          0.059437957 = score(doc=367,freq=2.0), product of:
            0.16695212 = queryWeight, product of:
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.025905682 = queryNorm
            0.35601798 = fieldWeight in 367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.444614 = idf(docFreq=190, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.11111111 = coord(2/18)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  18. Vlachidis, A.; Tudhope, D.: ¬A knowledge-based approach to information extraction for semantic interoperability in the archaeology domain (2016) 0.01
    0.007340597 = product of:
      0.06606537 = sum of:
        0.036410306 = weight(_text_:automatisches in 2895) [ClassicSimilarity], result of:
          0.036410306 = score(doc=2895,freq=2.0), product of:
            0.13066888 = queryWeight, product of:
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.025905682 = queryNorm
            0.27864558 = fieldWeight in 2895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2895)
        0.029655067 = weight(_text_:indexing in 2895) [ClassicSimilarity], result of:
          0.029655067 = score(doc=2895,freq=4.0), product of:
            0.099163525 = queryWeight, product of:
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.025905682 = queryNorm
            0.29905218 = fieldWeight in 2895, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.8278677 = idf(docFreq=2614, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2895)
      0.11111111 = coord(2/18)
    
    Abstract
    The article presents a method for automatic semantic indexing of archaeological grey-literature reports using empirical (rule-based) Information Extraction techniques in combination with domain-specific knowledge organization systems. The semantic annotation system (OPTIMA) performs the tasks of Named Entity Recognition, Relation Extraction, Negation Detection, and Word-Sense Disambiguation using hand-crafted rules and terminological resources for associating contextual abstractions with classes of the standard ontology CIDOC Conceptual Reference Model (CRM) for cultural heritage and its archaeological extension, CRM-EH. Relation Extraction (RE) performance benefits from a syntactic-based definition of RE patterns derived from domain oriented corpus analysis. The evaluation also shows clear benefit in the use of assistive natural language processing (NLP) modules relating to Word-Sense Disambiguation, Negation Detection, and Noun Phrase Validation, together with controlled thesaurus expansion. The semantic indexing results demonstrate the capacity of rule-based Information Extraction techniques to deliver interoperable semantic abstractions (semantic annotations) with respect to the CIDOC CRM and archaeological thesauri. Major contributions include recognition of relevant entities using shallow parsing NLP techniques driven by a complimentary use of ontological and terminological domain resources and empirical derivation of context-driven RE rules for the recognition of semantic relationships from phrases of unstructured text.
    Theme
    Automatisches Indexieren
  19. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.0064207227 = product of:
      0.057786502 = sum of:
        0.0371227 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.0371227 = score(doc=4910,freq=2.0), product of:
            0.1204451 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.025905682 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.020663803 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.020663803 = score(doc=4910,freq=12.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.11111111 = coord(2/18)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  20. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.01
    0.0061122063 = product of:
      0.055009857 = sum of:
        0.01859955 = weight(_text_:und in 2030) [ClassicSimilarity], result of:
          0.01859955 = score(doc=2030,freq=14.0), product of:
            0.0574165 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.025905682 = queryNorm
            0.32394084 = fieldWeight in 2030, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
        0.036410306 = weight(_text_:automatisches in 2030) [ClassicSimilarity], result of:
          0.036410306 = score(doc=2030,freq=2.0), product of:
            0.13066888 = queryWeight, product of:
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.025905682 = queryNorm
            0.27864558 = fieldWeight in 2030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.044024 = idf(docFreq=774, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
      0.11111111 = coord(2/18)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.

Years

Languages

  • e 106
  • d 81
  • pt 1
  • More… Less…

Types

  • a 135
  • el 47
  • m 9
  • x 8
  • r 6
  • s 3
  • n 1
  • p 1
  • More… Less…