Search (315 results, page 1 of 16)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.27
    0.26977646 = product of:
      0.57327497 = sum of:
        0.040411957 = product of:
          0.12123586 = sum of:
            0.12123586 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.12123586 = score(doc=1000,freq=2.0), product of:
                0.2588583 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030532904 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.12123586 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.12123586 = score(doc=1000,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.014351164 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.014351164 = score(doc=1000,freq=6.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.12123586 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.12123586 = score(doc=1000,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.12123586 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.12123586 = score(doc=1000,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.12123586 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.12123586 = score(doc=1000,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.004413656 = weight(_text_:in in 1000) [ClassicSimilarity], result of:
          0.004413656 = score(doc=1000,freq=4.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.10626988 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.029154759 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.029154759 = score(doc=1000,freq=24.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.47058824 = coord(8/17)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.26
    0.26303566 = product of:
      0.7452676 = sum of:
        0.05657674 = product of:
          0.16973022 = sum of:
            0.16973022 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.16973022 = score(doc=306,freq=2.0), product of:
                0.2588583 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030532904 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.16973022 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.16973022 = score(doc=306,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.16973022 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.16973022 = score(doc=306,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.16973022 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.16973022 = score(doc=306,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.16973022 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.16973022 = score(doc=306,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.009770045 = weight(_text_:in in 306) [ClassicSimilarity], result of:
          0.009770045 = score(doc=306,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.23523843 = fieldWeight in 306, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.3529412 = coord(6/17)
    
    Abstract
    Although service-oriented architectures go a long way toward providing interoperability in distributed, heterogeneous environments, managing semantic differences in such environments remains a challenge. We give an overview of the issue of semantic interoperability (integration), provide a semantic characterization of services, and discuss the role of ontologies. Then we analyze four basic models of semantic interoperability that differ in respect to their mapping between service descriptions and ontologies and in respect to where the evaluation of the integration logic is performed. We also provide some guidelines for selecting one of the possible interoperability models.
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  3. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.05
    0.05222594 = product of:
      0.17756818 = sum of:
        0.025938183 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.025938183 = score(doc=5812,freq=10.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.023461588 = product of:
          0.046923175 = sum of:
            0.046923175 = weight(_text_:bibliothekswesen in 5812) [ClassicSimilarity], result of:
              0.046923175 = score(doc=5812,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.34475547 = fieldWeight in 5812, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5812)
          0.5 = coord(1/2)
        0.047918573 = weight(_text_:informationswissenschaft in 5812) [ClassicSimilarity], result of:
          0.047918573 = score(doc=5812,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.348393 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.046923175 = weight(_text_:bibliothekswesen in 5812) [ClassicSimilarity], result of:
          0.046923175 = score(doc=5812,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.34475547 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.033326667 = weight(_text_:der in 5812) [ClassicSimilarity], result of:
          0.033326667 = score(doc=5812,freq=16.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.4886365 = fieldWeight in 5812, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.29411766 = coord(5/17)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  4. Klasing, M.: Crosskonkordanzen als Möglichkeit zur Heterogenitätsbehandlung : dargestellt am Projekt CrissCross (2008) 0.05
    0.05090508 = product of:
      0.14423105 = sum of:
        0.024856944 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.024856944 = score(doc=2460,freq=18.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.3673144 = fieldWeight in 2460, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.016758276 = product of:
          0.033516552 = sum of:
            0.033516552 = weight(_text_:bibliothekswesen in 2460) [ClassicSimilarity], result of:
              0.033516552 = score(doc=2460,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.24625391 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
        0.034227554 = weight(_text_:informationswissenschaft in 2460) [ClassicSimilarity], result of:
          0.034227554 = score(doc=2460,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.24885213 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.033516552 = weight(_text_:bibliothekswesen in 2460) [ClassicSimilarity], result of:
          0.033516552 = score(doc=2460,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.24625391 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.008257195 = weight(_text_:in in 2460) [ClassicSimilarity], result of:
          0.008257195 = score(doc=2460,freq=14.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.19881277 = fieldWeight in 2460, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.026614532 = weight(_text_:der in 2460) [ClassicSimilarity], result of:
          0.026614532 = score(doc=2460,freq=20.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.390223 = fieldWeight in 2460, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
      0.3529412 = coord(6/17)
    
    Abstract
    In Zeiten, in denen der schnelle und einfache Zugriff auf strukturierte und umfangreiche Datenbestände zunehmend an Bedeutung gewinnt, stellt die Heterogenität eben dieser Bestände ein großes Problem dar. Die meisten Bibliothekskataloge, Datenbanken usw. sind inhaltlich durch unterschiedliche Instrumente erschlossen, was für den Benutzer eine gewisse Einarbeitungszeit in jedes Erschließungsinstrument sowie die Notwendigkeit zur wiederholten und neu formulierten Suche in den unterschiedlich erschlossenen Datenbeständen bedeutet. Als Möglichkeit zur Behandlung der Heterogenitätsproblematik kommen beispielsweise Crosskonkordanzen in Betracht, durch welche semantisch übereinstimmende Schlagwörter, Deskriptoren bzw. Notationen verschiedener Erschließungsinstrumente intellektuell miteinander verbunden werden, so dass mit identischer Suchfrage mehrere unterschiedlich erschlossene Datenbestände durchsucht werden können. In der vorliegenden Arbeit soll die Problematik heterogener Datenbestände sowie die Behandlungsmöglichkeit durch Crosskonkordanzen beschrieben werden. Die konkretisierende Darstellung erfolgt anhand des Projektes CrissCross, einem gemeinschaftlichen Projekt der Deutschen Nationalbibliothek und der Fachhochschule Köln, in dem Crosskonkordanzen zwischen den Erschließungsinstrumenten SWD, DDC sowie LCSH und RAMEAU erstellt werden. Besonderheiten des Projektes CrissCross sind neben der Multilingualität und der Verbindung von verbalen und klassifikatorischen Erschließungsinstrumenten auch eine intellektuelle Gewichtung der Beziehungsstärke zweier verknüpfter Terme, die so genannte Determiniertheit. Neben den integrierten Erschließungsinstrumenten wird auch die konkrete Vorgehensweise ihrer Verbindung erläutert. Des Weiteren werden die Problemfelder des Projektes und im Besonderen denkbare Einsatzmöglichkeiten der Projektergebnisse vorgestellt, die wesentlich zur Lösung der Heterogenitätsproblematik und somit zu einer Verbesserung des Retrievals für den Benutzer beitragen können.
    Footnote
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Institut für Informationswissenschaft
  5. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.05
    0.04581715 = product of:
      0.1557783 = sum of:
        0.043753482 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.043753482 = score(doc=4910,freq=2.0), product of:
            0.14195877 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.030532904 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.024354732 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.024354732 = score(doc=4910,freq=12.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.0567126 = weight(_text_:einsatz in 4910) [ClassicSimilarity], result of:
          0.0567126 = score(doc=4910,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.3509004 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.008374324 = weight(_text_:in in 4910) [ClassicSimilarity], result of:
          0.008374324 = score(doc=4910,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.20163295 = fieldWeight in 4910, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.022583177 = weight(_text_:der in 4910) [ClassicSimilarity], result of:
          0.022583177 = score(doc=4910,freq=10.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.3311152 = fieldWeight in 4910, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.29411766 = coord(5/17)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
    Footnote
    Rez. in: iwp 62(2011) H.6/7, S. 323-324 (D. Lewandowski)
  6. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.044837233 = product of:
      0.15244658 = sum of:
        0.02343535 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.02343535 = score(doc=193,freq=16.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.09472912 = product of:
          0.18945824 = sum of:
            0.18945824 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.18945824 = score(doc=193,freq=2.0), product of:
                0.32359612 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.030532904 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.009362778 = weight(_text_:in in 193) [ClassicSimilarity], result of:
          0.009362778 = score(doc=193,freq=18.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.22543246 = fieldWeight in 193, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.014577379 = weight(_text_:der in 193) [ClassicSimilarity], result of:
          0.014577379 = score(doc=193,freq=6.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.21373394 = fieldWeight in 193, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.010341967 = product of:
          0.020683935 = sum of:
            0.020683935 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.020683935 = score(doc=193,freq=2.0), product of:
                0.106921025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030532904 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Content
    Vortrag; 98. Deutscher Bibliothekartag in Erfurt 2009. Vgl.: urn:nbn:de:0290-opus-7828.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  7. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.04
    0.037566636 = product of:
      0.12772655 = sum of:
        0.022463124 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.022463124 = score(doc=318,freq=30.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.023461588 = product of:
          0.046923175 = sum of:
            0.046923175 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
              0.046923175 = score(doc=318,freq=8.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.34475547 = fieldWeight in 318, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=318)
          0.5 = coord(1/2)
        0.046923175 = weight(_text_:bibliothekswesen in 318) [ClassicSimilarity], result of:
          0.046923175 = score(doc=318,freq=8.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.34475547 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.0072456594 = weight(_text_:in in 318) [ClassicSimilarity], result of:
          0.0072456594 = score(doc=318,freq=22.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.17445749 = fieldWeight in 318, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.027633011 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.027633011 = score(doc=318,freq=44.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.405156 = fieldWeight in 318, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.29411766 = coord(5/17)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.
  8. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.04
    0.03648445 = product of:
      0.12404712 = sum of:
        0.028122423 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.028122423 = score(doc=2259,freq=16.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.020109933 = product of:
          0.040219866 = sum of:
            0.040219866 = weight(_text_:bibliothekswesen in 2259) [ClassicSimilarity], result of:
              0.040219866 = score(doc=2259,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.2955047 = fieldWeight in 2259, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2259)
          0.5 = coord(1/2)
        0.040219866 = weight(_text_:bibliothekswesen in 2259) [ClassicSimilarity], result of:
          0.040219866 = score(doc=2259,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.2955047 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.0052963877 = weight(_text_:in in 2259) [ClassicSimilarity], result of:
          0.0052963877 = score(doc=2259,freq=4.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.12752387 = fieldWeight in 2259, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.030298514 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.030298514 = score(doc=2259,freq=18.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.29411766 = coord(5/17)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
  9. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.03
    0.03470488 = product of:
      0.11799659 = sum of:
        0.023899464 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.023899464 = score(doc=4302,freq=26.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.02738204 = weight(_text_:informationswissenschaft in 4302) [ClassicSimilarity], result of:
          0.02738204 = score(doc=4302,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.1990817 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.0378084 = weight(_text_:einsatz in 4302) [ClassicSimilarity], result of:
          0.0378084 = score(doc=4302,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.2339336 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.0055828826 = weight(_text_:in in 4302) [ClassicSimilarity], result of:
          0.0055828826 = score(doc=4302,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.13442196 = fieldWeight in 4302, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.023323808 = weight(_text_:der in 4302) [ClassicSimilarity], result of:
          0.023323808 = score(doc=4302,freq=24.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34197432 = fieldWeight in 4302, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.29411766 = coord(5/17)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Footnote
    Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) eingereicht an der Philosophischen Fakultät I
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  10. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.03
    0.03352694 = product of:
      0.11399159 = sum of:
        0.019885555 = weight(_text_:und in 1021) [ClassicSimilarity], result of:
          0.019885555 = score(doc=1021,freq=8.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.29385152 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.0567126 = weight(_text_:einsatz in 1021) [ClassicSimilarity], result of:
          0.0567126 = score(doc=1021,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.3509004 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.0074902223 = weight(_text_:in in 1021) [ClassicSimilarity], result of:
          0.0074902223 = score(doc=1021,freq=8.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.18034597 = fieldWeight in 1021, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.017492857 = weight(_text_:der in 1021) [ClassicSimilarity], result of:
          0.017492857 = score(doc=1021,freq=6.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.25648075 = fieldWeight in 1021, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.01241036 = product of:
          0.02482072 = sum of:
            0.02482072 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.02482072 = score(doc=1021,freq=2.0), product of:
                0.106921025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030532904 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.4, S.199-208
  11. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.03
    0.031811584 = product of:
      0.10815938 = sum of:
        0.025871927 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.025871927 = score(doc=2317,freq=78.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.023630248 = weight(_text_:einsatz in 2317) [ClassicSimilarity], result of:
          0.023630248 = score(doc=2317,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.1462085 = fieldWeight in 2317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.007319221 = weight(_text_:in in 2317) [ClassicSimilarity], result of:
          0.007319221 = score(doc=2317,freq=44.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.17622867 = fieldWeight in 2317, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.03177066 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.03177066 = score(doc=2317,freq=114.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.019567322 = product of:
          0.039134644 = sum of:
            0.039134644 = weight(_text_:katalogisierung in 2317) [ClassicSimilarity], result of:
              0.039134644 = score(doc=2317,freq=4.0), product of:
                0.17489795 = queryWeight, product of:
                  5.7281795 = idf(docFreq=390, maxDocs=44218)
                  0.030532904 = queryNorm
                0.22375701 = fieldWeight in 2317, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.7281795 = idf(docFreq=390, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2317)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    Abstract
    Der 74. Weltkongress der International Federation of Library Associations and Institutions (IFLA) hat vom 10. bis 14. August 2008 unter dem Motto "Libraries without borders: Navigating towards global understanding" in Quebec, Kanada, stattgefunden. Dort trafen sich mehr als 3000 Bibliothekarinnen und Bibliothekare aus 150 Ländern der Welt zu insgesamt 224 Veranstaltungen und verschiedenen Satellitenkonferenzen. Die IFLA-Präsidentin Prof. Dr. Claudia Lux aus Berlin leitete die Tagung und war gleichzeitig prominenteste Vertreterin der deutschen Delegation, die aus mehr als 80 Kolleginnen und Kollegen bestand und damit im Vergleich zum Vorjahr erfreulich groß war. Wer nicht dabei sein konnte und sich dennoch einen Eindruck über die Konferenz und die Atmosphäre verschaffen möchte, kann dies online tun. Neben dem Programm und einer Vielzahl von Vorträgen sind auf der Website der IFLA auch Links zu Fotos, Videos und Blogs vorhanden. Innerhalb der IFLA wird derzeit an einer Neuorganisation und damit verbunden einer neuen Satzung gearbeitet, unter anderem sollen auch der interne und externe Informationsfluss verbessert werden. Dazu soll Anfang 2009 eine neu gestaltete Website mit einem Content Managementsystem frei geschaltet werden. Das Design der neuen Site wurde in Quebec vorgestellt, eine Präsentation ist im IFLAnet zu finden. Wie in den vergangenen Jahren soll auch in diesem Jahr über die Veranstaltungen der Division IV Bibliographic Control mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie Knowledge Managament berichtet werden.
    Content
    Darin u.a.: Cataloguing Section Deutsches Mitglied im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Deutsche Nationalbibliothek) und Ulrike Junger (2007-2011; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. Die beiden Arbeitssitzungen des Ständigen Ausschusses der Sektion Katalogisierung dienen neben der Abwicklung von Routinegeschäften, der Entgegennahme bzw. Verabschiedung von Berichten der einzelnen Arbeitsgruppen, der Vorbereitung der Veranstaltungen sowie der Fortschreibung des Strategieplans der Sektion.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
    Am Programm für den nächsten Weltkongress arbeitet der Ständige Ausschuss bereits. Es steht unter dem Motto "Foundations to Build Future Subject Access". Geplant ist auch eine Satellitenkonferenz, die am 20. und 21. August 2009 in Florenz unter dem Titel "Past Lessons, Future Challenges in Subject Access" stattfindet, zu der alle an Klassifikationen und Indexierungsprozessen Interessierte herzlich eingeladen sind. Die Arbeitsgruppen der Sektion trafen sich in Quebec, konnten jedoch bislang keine abschließenden Ergebnisse vorlegen. So sind bisher weder die Richtlinien für multilinguale Thesauri redigiert und publiziert, noch ist mit dem Erscheinen der Richtlinien für Sacherschließungsdaten in Nationalbibliografien vor 2009 zu rechnen. Die Teilnehmer verständigten sich darauf, dass die Weiterarbeit an einem multilingualen Wörterbuch zur Katalogisierung im Zeitalter von FRBR und RDA wichtiger denn je ist. Nach dem Release der neuen IFLA-Website soll dieses Online-Nachschlagewerk auf den Webseiten eine Heimat finden und wartet auf die Mitarbeit von Katalogisierern aus aller Welt. Die Arbeitsgruppe zu den Functional Requirements for Subject Authority Records (FRSAR) traf sich 2008 mehrfach und stellte zuletzt während der Konferenz der International Society of Knowledge Organization (ISKO) in Montreal ihre Arbeitsergebnisse zur Diskussion. Leider sind keine aktuellen Papiere zu den FRSAR online verfügbar. Ein internationales Stellungnahmeverfahren zu dem Modell zu Katalogisaten von Themen von Werken im Rahmen des FRBR-Modells kann jedoch 2009 erwartet werden. Mehr Informationen dazu gibt es z.B. in der neuen Publikation "New Perspectives on Subject Indexing and Classification", einer Gedenkschrift für die verstorbene Kollegin und ehemaliges Mitglied des Ständigen Ausschusses, Magda Heiner-Freiling. Die Idee dazu entstand während des IFLA-Kongresses in Durban. Dank der zahlreichen Beitragenden aus aller Welt gelang es, im Laufe des vergangenen Jahres eine interessante Sammlung rund um die Themen DDC, verbale Sacherschließung, Terminologiearbeit und multilinguale sachliche Suchen zusammenzustellen.
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
  12. Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006) 0.03
    0.031127103 = product of:
      0.105832145 = sum of:
        0.014351164 = weight(_text_:und in 6061) [ClassicSimilarity], result of:
          0.014351164 = score(doc=6061,freq=6.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.21206908 = fieldWeight in 6061, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.016758276 = product of:
          0.033516552 = sum of:
            0.033516552 = weight(_text_:bibliothekswesen in 6061) [ClassicSimilarity], result of:
              0.033516552 = score(doc=6061,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.24625391 = fieldWeight in 6061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6061)
          0.5 = coord(1/2)
        0.034227554 = weight(_text_:informationswissenschaft in 6061) [ClassicSimilarity], result of:
          0.034227554 = score(doc=6061,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.24885213 = fieldWeight in 6061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.033516552 = weight(_text_:bibliothekswesen in 6061) [ClassicSimilarity], result of:
          0.033516552 = score(doc=6061,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.24625391 = fieldWeight in 6061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.006978603 = weight(_text_:in in 6061) [ClassicSimilarity], result of:
          0.006978603 = score(doc=6061,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.16802745 = fieldWeight in 6061, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
      0.29411766 = coord(5/17)
    
    Abstract
    The middle of the 1990s are coined by the increased enthusiasm for the possibilities of the WWW, which has only recently deviated - at least in relation to scientific information - for the differentiated measuring of its advantages and disadvantages. Web Information Retrieval originated as a specialized discipline with great commercial significance (for an overview see Lewandowski 2005). Besides the new technological structure that enables the indexing and searching (in seconds) of unimaginable amounts of data worldwide, new assessment processes for the ranking of search results are being developed, which use the link structures of the Web. They are the main innovation with respect to the traditional "mother discipline" of Information Retrieval. From the beginning, link structures of Web pages are applied to commercial search engines in a wide array of variations. From the perspective of scientific information, link topology based approaches were in essence trying to solve a self-created problem: on the one hand, it quickly became clear that the openness of the Web led to an up-tonow unknown increase in available information, but this also caused the quality of the Web pages searched to become a problem - and with it the relevance of the results. The gatekeeper function of traditional information providers, which narrows down every user query to focus on high-quality sources was lacking. Therefore, the recognition of the "authoritativeness" of the Web pages by general search engines such as Google was one of the most important factors for their success.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Krause, J.: Sacherschließung in virtuellen Bibliotheken : Standardisierung versus Heterogenität (2000) 0.03
    0.030101685 = product of:
      0.12793216 = sum of:
        0.016571296 = weight(_text_:und in 6070) [ClassicSimilarity], result of:
          0.016571296 = score(doc=6070,freq=2.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.24487628 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
        0.033516552 = product of:
          0.067033105 = sum of:
            0.067033105 = weight(_text_:bibliothekswesen in 6070) [ClassicSimilarity], result of:
              0.067033105 = score(doc=6070,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.49250782 = fieldWeight in 6070, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6070)
          0.5 = coord(1/2)
        0.067033105 = weight(_text_:bibliothekswesen in 6070) [ClassicSimilarity], result of:
          0.067033105 = score(doc=6070,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.49250782 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
        0.010811206 = weight(_text_:in in 6070) [ClassicSimilarity], result of:
          0.010811206 = score(doc=6070,freq=6.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.260307 = fieldWeight in 6070, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
      0.23529412 = coord(4/17)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.77
    Source
    Grenzenlos in die Zukunft: 89. Deutscher Bibliothekartag in Freiburg im Breisgau 1999. Hrsg.: M. Rützel-Banz
  14. Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010) 0.03
    0.027246987 = product of:
      0.115799695 = sum of:
        0.033142593 = weight(_text_:und in 4848) [ClassicSimilarity], result of:
          0.033142593 = score(doc=4848,freq=32.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.48975256 = fieldWeight in 4848, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.047260497 = weight(_text_:einsatz in 4848) [ClassicSimilarity], result of:
          0.047260497 = score(doc=4848,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.292417 = fieldWeight in 4848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.0062418524 = weight(_text_:in in 4848) [ClassicSimilarity], result of:
          0.0062418524 = score(doc=4848,freq=8.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.15028831 = fieldWeight in 4848, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
        0.029154759 = weight(_text_:der in 4848) [ClassicSimilarity], result of:
          0.029154759 = score(doc=4848,freq=24.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.42746788 = fieldWeight in 4848, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4848)
      0.23529412 = coord(4/17)
    
    Abstract
    Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
    Content
    Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
    Imprint
    Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
  15. Neubauer, G.: Visualization of typed links in linked data (2017) 0.03
    0.026655678 = product of:
      0.11328663 = sum of:
        0.016571296 = weight(_text_:und in 3912) [ClassicSimilarity], result of:
          0.016571296 = score(doc=3912,freq=8.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.24487628 = fieldWeight in 3912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.067504965 = weight(_text_:datenverarbeitung in 3912) [ClassicSimilarity], result of:
          0.067504965 = score(doc=3912,freq=2.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.34947917 = fieldWeight in 3912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.005405603 = weight(_text_:in in 3912) [ClassicSimilarity], result of:
          0.005405603 = score(doc=3912,freq=6.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.1301535 = fieldWeight in 3912, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.02380476 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.02380476 = score(doc=3912,freq=16.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
      0.23529412 = coord(4/17)
    
    Abstract
    Das Themengebiet der Arbeit behandelt Visualisierungen von typisierten Links in Linked Data. Die wissenschaftlichen Gebiete, die im Allgemeinen den Inhalt des Beitrags abgrenzen, sind das Semantic Web, das Web of Data und Informationsvisualisierung. Das Semantic Web, das von Tim Berners Lee 2001 erfunden wurde, stellt eine Erweiterung zum World Wide Web (Web 2.0) dar. Aktuelle Forschungen beziehen sich auf die Verknüpfbarkeit von Informationen im World Wide Web. Um es zu ermöglichen, solche Verbindungen wahrnehmen und verarbeiten zu können sind Visualisierungen die wichtigsten Anforderungen als Hauptteil der Datenverarbeitung. Im Zusammenhang mit dem Sematic Web werden Repräsentationen von zusammenhängenden Informationen anhand von Graphen gehandhabt. Der Grund des Entstehens dieser Arbeit ist in erster Linie die Beschreibung der Gestaltung von Linked Data-Visualisierungskonzepten, deren Prinzipien im Rahmen einer theoretischen Annäherung eingeführt werden. Anhand des Kontexts führt eine schrittweise Erweiterung der Informationen mit dem Ziel, praktische Richtlinien anzubieten, zur Vernetzung dieser ausgearbeiteten Gestaltungsrichtlinien. Indem die Entwürfe zweier alternativer Visualisierungen einer standardisierten Webapplikation beschrieben werden, die Linked Data als Netzwerk visualisiert, konnte ein Test durchgeführt werden, der deren Kompatibilität zum Inhalt hatte. Der praktische Teil behandelt daher die Designphase, die Resultate, und zukünftige Anforderungen des Projektes, die durch die Testung ausgearbeitet wurden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.179-199
  16. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.03
    0.025332065 = product of:
      0.10766128 = sum of:
        0.026306117 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.026306117 = score(doc=28,freq=14.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.04107306 = weight(_text_:informationswissenschaft in 28) [ClassicSimilarity], result of:
          0.04107306 = score(doc=28,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.29862255 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.0052963877 = weight(_text_:in in 28) [ClassicSimilarity], result of:
          0.0052963877 = score(doc=28,freq=4.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.12752387 = fieldWeight in 28, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.034985714 = weight(_text_:der in 28) [ClassicSimilarity], result of:
          0.034985714 = score(doc=28,freq=24.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.5129615 = fieldWeight in 28, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
      0.23529412 = coord(4/17)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  17. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.02
    0.02486492 = product of:
      0.105675906 = sum of:
        0.026306117 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
          0.026306117 = score(doc=1555,freq=14.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.38872904 = fieldWeight in 1555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.0567126 = weight(_text_:einsatz in 1555) [ClassicSimilarity], result of:
          0.0567126 = score(doc=1555,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.3509004 = fieldWeight in 1555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.008374324 = weight(_text_:in in 1555) [ClassicSimilarity], result of:
          0.008374324 = score(doc=1555,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.20163295 = fieldWeight in 1555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.014282857 = weight(_text_:der in 1555) [ClassicSimilarity], result of:
          0.014282857 = score(doc=1555,freq=4.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.20941564 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
      0.23529412 = coord(4/17)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
    Source
    Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
  18. Rölke, H.; Weichselbraun, A.: Ontologien und Linked Open Data (2023) 0.02
    0.024278404 = product of:
      0.10318322 = sum of:
        0.021921763 = weight(_text_:und in 788) [ClassicSimilarity], result of:
          0.021921763 = score(doc=788,freq=14.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.32394084 = fieldWeight in 788, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.04840507 = weight(_text_:informationswissenschaft in 788) [ClassicSimilarity], result of:
          0.04840507 = score(doc=788,freq=4.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.35193008 = fieldWeight in 788, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.0062418524 = weight(_text_:in in 788) [ClassicSimilarity], result of:
          0.0062418524 = score(doc=788,freq=8.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.15028831 = fieldWeight in 788, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
        0.026614532 = weight(_text_:der in 788) [ClassicSimilarity], result of:
          0.026614532 = score(doc=788,freq=20.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.390223 = fieldWeight in 788, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=788)
      0.23529412 = coord(4/17)
    
    Abstract
    Der Begriff Ontologie stammt ursprünglich aus der Metaphysik, einem Teilbereich der Philosophie, welcher sich um die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit bemüht. Ontologien befassen sich dabei mit der Frage, welche Dinge auf der fundamentalsten Ebene existieren, wie sich diese strukturieren lassen und in welchen Beziehungen diese zueinanderstehen. In der Informationswissenschaft hingegen werden Ontologien verwendet, um das Vokabular für die Beschreibung von Wissensbereichen zu formalisieren. Ziel ist es, dass alle Akteure, die in diesen Bereichen tätig sind, die gleichen Konzepte und Begrifflichkeiten verwenden, um eine reibungslose Zusammenarbeit ohne Missverständnisse zu ermöglichen. So definierte zum Beispiel die Dublin Core Metadaten Initiative 15 Kernelemente, die zur Beschreibung von elektronischen Ressourcen und Medien verwendet werden können. Jedes Element wird durch eine eindeutige Bezeichnung (zum Beispiel identifier) und eine zugehörige Konzeption, welche die Bedeutung dieser Bezeichnung möglichst exakt festlegt, beschrieben. Ein Identifier muss zum Beispiel laut der Dublin Core Ontologie ein Dokument basierend auf einem zugehörigen Katalog eindeutig identifizieren. Je nach Katalog kämen daher zum Beispiel eine ISBN (Katalog von Büchern), ISSN (Katalog von Zeitschriften), URL (Web), DOI (Publikationsdatenbank) etc. als Identifier in Frage.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  19. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.02
    0.024210429 = product of:
      0.10289432 = sum of:
        0.02620152 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.02620152 = score(doc=4321,freq=20.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.034227554 = weight(_text_:informationswissenschaft in 4321) [ClassicSimilarity], result of:
          0.034227554 = score(doc=4321,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.24885213 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.009869236 = weight(_text_:in in 4321) [ClassicSimilarity], result of:
          0.009869236 = score(doc=4321,freq=20.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.2376267 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.03259601 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.03259601 = score(doc=4321,freq=30.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.23529412 = coord(4/17)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  20. Fiala, S.: Deutscher Bibliothekartag Leipzig 2007 : Sacherschließung - Informationsdienstleistung nach Mass (2007) 0.02
    0.02208348 = product of:
      0.09385479 = sum of:
        0.028558455 = weight(_text_:und in 415) [ClassicSimilarity], result of:
          0.028558455 = score(doc=415,freq=66.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.42201215 = fieldWeight in 415, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.0283563 = weight(_text_:einsatz in 415) [ClassicSimilarity], result of:
          0.0283563 = score(doc=415,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.1754502 = fieldWeight in 415, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.008374324 = weight(_text_:in in 415) [ClassicSimilarity], result of:
          0.008374324 = score(doc=415,freq=40.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.20163295 = fieldWeight in 415, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
        0.028565714 = weight(_text_:der in 415) [ClassicSimilarity], result of:
          0.028565714 = score(doc=415,freq=64.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.4188313 = fieldWeight in 415, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=415)
      0.23529412 = coord(4/17)
    
    Content
    ""Sacherschließung - Informationsdienstleistung nach Maß": unter diesem Titel fand am 3. Leipziger Kongress für Information und Bibliothek ("Information und Ethik") eine sehr aufschlussreiche Vortragsreihe statt. Neue Projekte der Vernetzung unterschiedlichst erschlossener Bestände wurden vorgestellt. Auch die Frage, inwieweit man die Nutzerinnen und Nutzer in die Erschließung einbinden kann, wurde behandelt. Die Arbeit der Bibliothekare kann wertvolle Ausgangssituationen für alternative Methoden bieten. Das Zusammenwirken von intellektueller und maschineller Erschließung wird in Zukunft eine große Rolle spielen. Ein Ausweg, um die Erschließung der ständig wachsenden Informationsquellen zu ermöglichen, könnte eine arbeitsteilige Erschließung und eine Kooperation mit anderen Informationseinrichtungen darstellen. Im Mittelpunkt all dieser Überlegungen standen die Heterogenitätsprobleme, die sich durch unterschiedliche Erschließungsregeln, verschiedene Arbeitsinstrumente, verschiedene Sprachen und durch die unterschiedliche Bedeutung der Begriffe ergeben können. Der Nachmittag begann mit einem konkreten Beispiel: "Zum Stand der Heterogenitätsbehandlung in vascoda" (Philipp Mayr, Bonn und Anne-Kathrin Walter, Bonn). Das Wissenschaftsportal vascoda beinhaltet verschiedene Fachportale, und es kann entweder interdisziplinär oder fachspezifisch gesucht werden. Durch die verschiedenen Informationsangebote, die in einem Fachportal vorhanden sind und die in dem Wissenschaftsportal vascoda zusammengefasst sind, entsteht semantische Heterogenität. Oberstes Ziel ist somit die Heterogenitätsbehandlung. Die Erstellung von Crosskonkordanzen (zwischen Indexierungssprachen innerhalb eines Fachgebiets und zwischen Indexierungssprachen unterschiedlicher Fachgebiete) und dem sogenannten Heterogenitätsservice (Term-Umschlüsselungs-Dienst) wurden anhand dieses Wissenschaftsportals vorgestellt. "Crosskonkordanzen sind gerichtete, relevanzbewertete Relationen zwischen Termen zweier Thesauri, Klassifikationen oder auch anderer kontrollierter Vokabulare." Im Heterogenitätsservice soll die Suchanfrage so transformiert werden, dass sie alle relevanten Dokumente in den verschiedenen Datenbanken erreicht. Bei der Evaluierung der Crosskonkordanzen stellt sich die Frage der Zielgenauigkeit der Relationen, sowie die Frage nach der Relevanz der durch die Crosskonkordanz zusätzlich gefundenen Treffer. Drei Schritte der Evaluation werden durchgeführt: Zum einen mit natürlicher Sprache in der Freitextsuche, dann übersetzt in Deskriptoren in der Schlagwortsuche und zuletzt mit Deskriptoren in der Schlagwortsuche mit Einsatz der Crosskonkordanzen. Im Laufe des Sommers werden erste Ergebnisse der Evaluation der Crosskonkordanzen erwartet.
    Einen anderen sehr interessanten Ansatz bot der nächste Vortrag mit dem Titel: "Navigieren zwischen Schlagwort und Notation - Crisscross als Verbindung zwischen SWD und DDC" (Helga Karg, Frankfurt am Main und Guido Bee, Frankfurt am Main). Das Projekt Crisscross versucht durch Verbindung von SWD, LCSH, Rameau und DDC ein benutzergerechtes, multilinguales und thesaurusbasiertes Recherchevokabular zu erstellen. Es wurde eine Konkordanz zwischen SWD, LCSH und Rameau (Projekt MACS) erstellt und in den SWD-Sachschlagwörtern die DDCNotationen vermerkt. Durch die Angabe der Determiniertheit in der SWD kann zwischen "wesentlicher Übereinstimmung von SWD-Term und DDCKlasse", "SWD-Begriff spezifischer als die DDC-Klasse" und SWD-Begriff sowohl "nicht auf einen bestimmten Kontext beschränkt" als auch "SWDBegriff quer zur DDC-Hierarchie" unterschieden werden (siehe auch: Anzeige in MelviIClass).
    Der dritte Vortrag dieser Vortragsreihe mit dem Titel: "Anfragetransfers zur Integration von Internetquellen in digitalen Bibliotheken auf der Grundlage statistischer Termrelationen" (Robert Strötgen, Hildesheim) zeigte eine maschinelle Methode der Integration ausgewählter, inhaltlich aber nicht erschlossener Internetdokumentbestände in digitale Bibliotheken. Das Zusammentreffen inhaltlich gut erschlossener Fachdatenbanken mit Internetdokumenten steht im Mittelpunkt dieses Forschungsprojekts. "Sollen ausgewählte fachliche Internetdokumente zur Ausweitung einer Recherche in einer digitalen Bibliothek integriert werden, ist dies entweder durch eine Beschränkung auf hochwertige und aufwändig erstellte Clearinghouses oder durch eine "naive" Weiterleitung der Benutzeranfrage möglich." Weiter heißt es in der Projektbeschreibung: "Unter Anwendung von Methoden des maschinellen Lernens werden semantische Relationen zwischen Klassen verschiedener Ontologien erstellt, die Übergänge zwischen diesen Ontologien ermöglichen. Besondere Bedeutung für dieses Forschungsvorhaben hat der Transfer zwischen Ontologien und Freitexttermen." Ausgehend vom Projekt CARMEN werden in diesem Projekt automatisiert - durch statistisches maschinelles Lernen - semantische Relationen berechnet. So wird eine Benutzeranfrage, die mittels Thesaurus erfolgte, für eine Abfrage in Internetdokumentbeständen transformiert.
    Jan Lüth (Kiel) zeigte mit seinem Vortrag "Inhaltserschließung durch Nutzerinnen und Nutzer: Ergebnisse eines Tests mit Internetquellen der Virtuellen Fachbibliothek EconBiz" als letzter an diesem Nachmittag eine alternative neue Methode der Erschließung. Für diesen Test wurde eine Teilmenge der im EconBiz-Fachinformationsführer enthaltenen Internetquellen in Social-Bookmarking-Webseiten angeboten, und es wurde beobachtet, inwieweit diese Internetquellen nachgenutzt und durch Schlagworte (Tags) ergänzt wurden. Social-Bookmarking-Webseiten ermöglichen eine private, aber auch öffentliche Verwaltung von Lesezeichen im Internet, welche mit freien Schlagwörtern (Tags), einem Titel und/oder einer Beschreibung versehen werden können. Diese Inhalte werden indexiert und somit werden verschiedene Sprachen, Begriffe und Schreibweisen suchbar. Ziel des Tests sollen Ergebnisse über Potenzial und Einsatzmöglichkeiten von Social-Bookmarking-Systemen im Kontext einer virtuellen Fachbibliothek sein. Als Fazit lässt sich sagen, dass Social Bookmarking sehr aufschlussreich sein kann, um neue Quellen zu erschließen und auszuwählen, und dass ein sehr großes Potenzial vorhanden ist, wenn viele Anwender viele Inhalte einbringen."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.44-46

Years

Languages

  • e 224
  • d 85
  • no 1
  • pt 1
  • More… Less…

Types

  • a 215
  • el 95
  • m 18
  • x 11
  • r 9
  • s 7
  • n 2
  • p 2
  • More… Less…

Subjects