Search (161 results, page 1 of 9)

  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.26
    0.26050925 = product of:
      0.54105765 = sum of:
        0.035851445 = product of:
          0.10755433 = sum of:
            0.10755433 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.10755433 = score(doc=1000,freq=2.0), product of:
                0.229646 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027087249 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.10755433 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10755433 = score(doc=1000,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012731628 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012731628 = score(doc=1000,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.024627116 = weight(_text_:aus in 1000) [ClassicSimilarity], result of:
          0.024627116 = score(doc=1000,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.2665136 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.016262705 = weight(_text_:dem in 1000) [ClassicSimilarity], result of:
          0.016262705 = score(doc=1000,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.1821174 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.025864627 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1000,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012731628 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012731628 = score(doc=1000,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.025864627 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1000,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.025864627 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1000,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10755433 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10755433 = score(doc=1000,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.025864627 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.025864627 = score(doc=1000,freq=24.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.10755433 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.10755433 = score(doc=1000,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012731628 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012731628 = score(doc=1000,freq=6.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4814815 = coord(13/27)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.10
    0.09700843 = product of:
      0.26192278 = sum of:
        0.023244666 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4315,freq=80.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.019469444 = weight(_text_:aus in 4315) [ClassicSimilarity], result of:
          0.019469444 = score(doc=4315,freq=10.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21069749 = fieldWeight in 4315, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.028167833 = weight(_text_:dem in 4315) [ClassicSimilarity], result of:
          0.028167833 = score(doc=4315,freq=24.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.3154366 = fieldWeight in 4315, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.02963165 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.02963165 = score(doc=4315,freq=126.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.023244666 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4315,freq=80.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.02963165 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.02963165 = score(doc=4315,freq=126.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.02963165 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.02963165 = score(doc=4315,freq=126.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.02602491 = weight(_text_:allgemeinen in 4315) [ClassicSimilarity], result of:
          0.02602491 = score(doc=4315,freq=2.0), product of:
            0.15975504 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027087249 = queryNorm
            0.1629051 = fieldWeight in 4315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.02963165 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.02963165 = score(doc=4315,freq=126.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.023244666 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4315,freq=80.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.37037036 = coord(10/27)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  3. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.09
    0.08811288 = product of:
      0.26433864 = sum of:
        0.024948793 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.024948793 = score(doc=2259,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.019515248 = weight(_text_:dem in 2259) [ClassicSimilarity], result of:
          0.019515248 = score(doc=2259,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.21854089 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.026879309 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.026879309 = score(doc=2259,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.024948793 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.024948793 = score(doc=2259,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.026879309 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.026879309 = score(doc=2259,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.026879309 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.026879309 = score(doc=2259,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.062459785 = weight(_text_:allgemeinen in 2259) [ClassicSimilarity], result of:
          0.062459785 = score(doc=2259,freq=2.0), product of:
            0.15975504 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027087249 = queryNorm
            0.39097226 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.026879309 = weight(_text_:der in 2259) [ClassicSimilarity], result of:
          0.026879309 = score(doc=2259,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44423765 = fieldWeight in 2259, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.024948793 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.024948793 = score(doc=2259,freq=16.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.33333334 = coord(9/27)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
  4. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.08
    0.08127767 = product of:
      0.24383299 = sum of:
        0.023244666 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4321,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.024627116 = weight(_text_:aus in 4321) [ClassicSimilarity], result of:
          0.024627116 = score(doc=4321,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.2665136 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.028917532 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.028917532 = score(doc=4321,freq=30.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.023244666 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4321,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.028917532 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.028917532 = score(doc=4321,freq=30.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.03380174 = weight(_text_:geschichte in 4321) [ClassicSimilarity], result of:
          0.03380174 = score(doc=4321,freq=2.0), product of:
            0.12874028 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027087249 = queryNorm
            0.2625576 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.028917532 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.028917532 = score(doc=4321,freq=30.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.028917532 = weight(_text_:der in 4321) [ClassicSimilarity], result of:
          0.028917532 = score(doc=4321,freq=30.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.47792363 = fieldWeight in 4321, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.023244666 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.023244666 = score(doc=4321,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.33333334 = coord(9/27)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
  5. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.08
    0.07860628 = product of:
      0.23581883 = sum of:
        0.028808383 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.028808383 = score(doc=2175,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.0278624 = weight(_text_:aus in 2175) [ClassicSimilarity], result of:
          0.0278624 = score(doc=2175,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.026712872 = weight(_text_:der in 2175) [ClassicSimilarity], result of:
          0.026712872 = score(doc=2175,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 2175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.028808383 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.028808383 = score(doc=2175,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.026712872 = weight(_text_:der in 2175) [ClassicSimilarity], result of:
          0.026712872 = score(doc=2175,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 2175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.026712872 = weight(_text_:der in 2175) [ClassicSimilarity], result of:
          0.026712872 = score(doc=2175,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 2175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.026712872 = weight(_text_:der in 2175) [ClassicSimilarity], result of:
          0.026712872 = score(doc=2175,freq=10.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.44148692 = fieldWeight in 2175, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.028808383 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.028808383 = score(doc=2175,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.014679793 = product of:
          0.029359587 = sum of:
            0.029359587 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.029359587 = score(doc=2175,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
  6. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.08
    0.0777313 = product of:
      0.23319387 = sum of:
        0.022952268 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.022952268 = score(doc=2317,freq=78.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.024627116 = weight(_text_:aus in 2317) [ClassicSimilarity], result of:
          0.024627116 = score(doc=2317,freq=16.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.2665136 = fieldWeight in 2317, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.026968647 = weight(_text_:dem in 2317) [ClassicSimilarity], result of:
          0.026968647 = score(doc=2317,freq=22.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.30200756 = fieldWeight in 2317, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.028185325 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.028185325 = score(doc=2317,freq=114.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.022952268 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.022952268 = score(doc=2317,freq=78.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.028185325 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.028185325 = score(doc=2317,freq=114.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.028185325 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.028185325 = score(doc=2317,freq=114.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.028185325 = weight(_text_:der in 2317) [ClassicSimilarity], result of:
          0.028185325 = score(doc=2317,freq=114.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46582234 = fieldWeight in 2317, product of:
              10.677078 = tf(freq=114.0), with freq of:
                114.0 = termFreq=114.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
        0.022952268 = weight(_text_:und in 2317) [ClassicSimilarity], result of:
          0.022952268 = score(doc=2317,freq=78.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38231295 = fieldWeight in 2317, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
      0.33333334 = coord(9/27)
    
    Abstract
    Der 74. Weltkongress der International Federation of Library Associations and Institutions (IFLA) hat vom 10. bis 14. August 2008 unter dem Motto "Libraries without borders: Navigating towards global understanding" in Quebec, Kanada, stattgefunden. Dort trafen sich mehr als 3000 Bibliothekarinnen und Bibliothekare aus 150 Ländern der Welt zu insgesamt 224 Veranstaltungen und verschiedenen Satellitenkonferenzen. Die IFLA-Präsidentin Prof. Dr. Claudia Lux aus Berlin leitete die Tagung und war gleichzeitig prominenteste Vertreterin der deutschen Delegation, die aus mehr als 80 Kolleginnen und Kollegen bestand und damit im Vergleich zum Vorjahr erfreulich groß war. Wer nicht dabei sein konnte und sich dennoch einen Eindruck über die Konferenz und die Atmosphäre verschaffen möchte, kann dies online tun. Neben dem Programm und einer Vielzahl von Vorträgen sind auf der Website der IFLA auch Links zu Fotos, Videos und Blogs vorhanden. Innerhalb der IFLA wird derzeit an einer Neuorganisation und damit verbunden einer neuen Satzung gearbeitet, unter anderem sollen auch der interne und externe Informationsfluss verbessert werden. Dazu soll Anfang 2009 eine neu gestaltete Website mit einem Content Managementsystem frei geschaltet werden. Das Design der neuen Site wurde in Quebec vorgestellt, eine Präsentation ist im IFLAnet zu finden. Wie in den vergangenen Jahren soll auch in diesem Jahr über die Veranstaltungen der Division IV Bibliographic Control mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie Knowledge Managament berichtet werden.
    Content
    Darin u.a.: Cataloguing Section Deutsches Mitglied im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Deutsche Nationalbibliothek) und Ulrike Junger (2007-2011; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. Die beiden Arbeitssitzungen des Ständigen Ausschusses der Sektion Katalogisierung dienen neben der Abwicklung von Routinegeschäften, der Entgegennahme bzw. Verabschiedung von Berichten der einzelnen Arbeitsgruppen, der Vorbereitung der Veranstaltungen sowie der Fortschreibung des Strategieplans der Sektion.
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
    Am Programm für den nächsten Weltkongress arbeitet der Ständige Ausschuss bereits. Es steht unter dem Motto "Foundations to Build Future Subject Access". Geplant ist auch eine Satellitenkonferenz, die am 20. und 21. August 2009 in Florenz unter dem Titel "Past Lessons, Future Challenges in Subject Access" stattfindet, zu der alle an Klassifikationen und Indexierungsprozessen Interessierte herzlich eingeladen sind. Die Arbeitsgruppen der Sektion trafen sich in Quebec, konnten jedoch bislang keine abschließenden Ergebnisse vorlegen. So sind bisher weder die Richtlinien für multilinguale Thesauri redigiert und publiziert, noch ist mit dem Erscheinen der Richtlinien für Sacherschließungsdaten in Nationalbibliografien vor 2009 zu rechnen. Die Teilnehmer verständigten sich darauf, dass die Weiterarbeit an einem multilingualen Wörterbuch zur Katalogisierung im Zeitalter von FRBR und RDA wichtiger denn je ist. Nach dem Release der neuen IFLA-Website soll dieses Online-Nachschlagewerk auf den Webseiten eine Heimat finden und wartet auf die Mitarbeit von Katalogisierern aus aller Welt. Die Arbeitsgruppe zu den Functional Requirements for Subject Authority Records (FRSAR) traf sich 2008 mehrfach und stellte zuletzt während der Konferenz der International Society of Knowledge Organization (ISKO) in Montreal ihre Arbeitsergebnisse zur Diskussion. Leider sind keine aktuellen Papiere zu den FRSAR online verfügbar. Ein internationales Stellungnahmeverfahren zu dem Modell zu Katalogisaten von Themen von Werken im Rahmen des FRBR-Modells kann jedoch 2009 erwartet werden. Mehr Informationen dazu gibt es z.B. in der neuen Publikation "New Perspectives on Subject Indexing and Classification", einer Gedenkschrift für die verstorbene Kollegin und ehemaliges Mitglied des Ständigen Ausschusses, Magda Heiner-Freiling. Die Idee dazu entstand während des IFLA-Kongresses in Durban. Dank der zahlreichen Beitragenden aus aller Welt gelang es, im Laufe des vergangenen Jahres eine interessante Sammlung rund um die Themen DDC, verbale Sacherschließung, Terminologiearbeit und multilinguale sachliche Suchen zusammenzustellen.
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
  7. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.07
    0.07480211 = product of:
      0.22440632 = sum of:
        0.020581704 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3730,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.0243796 = weight(_text_:aus in 3730) [ClassicSimilarity], result of:
          0.0243796 = score(doc=3730,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.26383498 = fieldWeight in 3730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.031359196 = weight(_text_:der in 3730) [ClassicSimilarity], result of:
          0.031359196 = score(doc=3730,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5182773 = fieldWeight in 3730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.020581704 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3730,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.031359196 = weight(_text_:der in 3730) [ClassicSimilarity], result of:
          0.031359196 = score(doc=3730,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5182773 = fieldWeight in 3730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.031359196 = weight(_text_:der in 3730) [ClassicSimilarity], result of:
          0.031359196 = score(doc=3730,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5182773 = fieldWeight in 3730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.031359196 = weight(_text_:der in 3730) [ClassicSimilarity], result of:
          0.031359196 = score(doc=3730,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.5182773 = fieldWeight in 3730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.020581704 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.020581704 = score(doc=3730,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.012844819 = product of:
          0.025689637 = sum of:
            0.025689637 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.025689637 = score(doc=3730,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  8. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.07
    0.07435855 = product of:
      0.5019202 = sum of:
        0.050192025 = product of:
          0.15057607 = sum of:
            0.15057607 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.15057607 = score(doc=306,freq=2.0), product of:
                0.229646 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027087249 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.15057607 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.15057607 = score(doc=306,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.15057607 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.15057607 = score(doc=306,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.15057607 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.15057607 = score(doc=306,freq=2.0), product of:
            0.229646 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027087249 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.14814815 = coord(4/27)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  9. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.07
    0.071143046 = product of:
      0.21342912 = sum of:
        0.025632447 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.025632447 = score(doc=2439,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.019701693 = weight(_text_:aus in 2439) [ClassicSimilarity], result of:
          0.019701693 = score(doc=2439,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.21321087 = fieldWeight in 2439, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.027372548 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.027372548 = score(doc=2439,freq=42.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.025632447 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.025632447 = score(doc=2439,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.027372548 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.027372548 = score(doc=2439,freq=42.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.027372548 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.027372548 = score(doc=2439,freq=42.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.027372548 = weight(_text_:der in 2439) [ClassicSimilarity], result of:
          0.027372548 = score(doc=2439,freq=42.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.45238948 = fieldWeight in 2439, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.025632447 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.025632447 = score(doc=2439,freq=38.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.0073398966 = product of:
          0.014679793 = sum of:
            0.014679793 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.014679793 = score(doc=2439,freq=2.0), product of:
                0.09485493 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027087249 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.33333334 = coord(9/27)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
  10. Mayr, P.; Walter, A.-K.: Mapping Knowledge Organization Systems (2008) 0.07
    0.070972145 = product of:
      0.21291642 = sum of:
        0.019723753 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.019723753 = score(doc=1676,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.020896798 = weight(_text_:aus in 1676) [ClassicSimilarity], result of:
          0.020896798 = score(doc=1676,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22614425 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019515248 = weight(_text_:dem in 1676) [ClassicSimilarity], result of:
          0.019515248 = score(doc=1676,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.21854089 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.02833328 = weight(_text_:der in 1676) [ClassicSimilarity], result of:
          0.02833328 = score(doc=1676,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 1676, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019723753 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.019723753 = score(doc=1676,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.02833328 = weight(_text_:der in 1676) [ClassicSimilarity], result of:
          0.02833328 = score(doc=1676,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 1676, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.02833328 = weight(_text_:der in 1676) [ClassicSimilarity], result of:
          0.02833328 = score(doc=1676,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 1676, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.02833328 = weight(_text_:der in 1676) [ClassicSimilarity], result of:
          0.02833328 = score(doc=1676,freq=20.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46826762 = fieldWeight in 1676, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
        0.019723753 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.019723753 = score(doc=1676,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.328536 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1676)
      0.33333334 = coord(9/27)
    
    Abstract
    Die Vernetzung der Informationssysteme und Datenbanken aus dem wissenschaftlichen Fachinformationsbereich lässt bislang den Aspekt der Kompatibilität und Konkordanz zwischen kontrollierten Vokabularen (semantische Heterogenität) weitgehend unberücksichtigt. Gerade aber für den inhaltlichen Zugang sachlich heterogen erschlössener Bestände spielen für den Nutzer die semantischen Querverbindungen (Mappings /Crosskonkordanzen) zwischen den zugrunde liegenden Knowledge Organization Systems (KOS) der Datenbanken eine entscheidende Rolle. Der Beitrag stellt Einsatzmöglichkeiten und Beispiele von Crosskonkordanzen (CK) im Projekt "Kompetenznetzwerk Modellbildung und Heterogenitätsbehandlung" (KoMoHe) sowie das Netz der bis dato entstandenen Terminolögie-Überstiege vor. Die am IZ entstandenen CK sollen künftig über einen Terminolögie-Service als Web Service genutzt werden, dieser wird im Beitrag exemplarisch vorgestellt.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  11. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.07
    0.06999884 = product of:
      0.2099965 = sum of:
        0.026502997 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.026502997 = score(doc=3236,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.024627116 = weight(_text_:aus in 3236) [ClassicSimilarity], result of:
          0.024627116 = score(doc=3236,freq=4.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.2665136 = fieldWeight in 3236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.016262705 = weight(_text_:dem in 3236) [ClassicSimilarity], result of:
          0.016262705 = score(doc=3236,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.1821174 = fieldWeight in 3236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.022399424 = weight(_text_:der in 3236) [ClassicSimilarity], result of:
          0.022399424 = score(doc=3236,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.37019804 = fieldWeight in 3236, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.026502997 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.026502997 = score(doc=3236,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.022399424 = weight(_text_:der in 3236) [ClassicSimilarity], result of:
          0.022399424 = score(doc=3236,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.37019804 = fieldWeight in 3236, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.022399424 = weight(_text_:der in 3236) [ClassicSimilarity], result of:
          0.022399424 = score(doc=3236,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.37019804 = fieldWeight in 3236, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.022399424 = weight(_text_:der in 3236) [ClassicSimilarity], result of:
          0.022399424 = score(doc=3236,freq=18.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.37019804 = fieldWeight in 3236, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.026502997 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.026502997 = score(doc=3236,freq=26.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
      0.33333334 = coord(9/27)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Series
    Fortschritte in der Wissensorganisation; Bd.7
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  12. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.07
    0.069101505 = product of:
      0.20730451 = sum of:
        0.021606287 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.021606287 = score(doc=4292,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.020896798 = weight(_text_:aus in 4292) [ClassicSimilarity], result of:
          0.020896798 = score(doc=4292,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22614425 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.033801403 = weight(_text_:dem in 4292) [ClassicSimilarity], result of:
          0.033801403 = score(doc=4292,freq=6.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.37852395 = fieldWeight in 4292, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021946864 = weight(_text_:der in 4292) [ClassicSimilarity], result of:
          0.021946864 = score(doc=4292,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021606287 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.021606287 = score(doc=4292,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021946864 = weight(_text_:der in 4292) [ClassicSimilarity], result of:
          0.021946864 = score(doc=4292,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021946864 = weight(_text_:der in 4292) [ClassicSimilarity], result of:
          0.021946864 = score(doc=4292,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021946864 = weight(_text_:der in 4292) [ClassicSimilarity], result of:
          0.021946864 = score(doc=4292,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.021606287 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.021606287 = score(doc=4292,freq=12.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
      0.33333334 = coord(9/27)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  13. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.07
    0.067951776 = product of:
      0.20385532 = sum of:
        0.016271265 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.016271265 = score(doc=4285,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.02725722 = weight(_text_:aus in 4285) [ClassicSimilarity], result of:
          0.02725722 = score(doc=4285,freq=10.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.29497647 = fieldWeight in 4285, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.011383895 = weight(_text_:dem in 4285) [ClassicSimilarity], result of:
          0.011383895 = score(doc=4285,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.12748219 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0291001 = weight(_text_:der in 4285) [ClassicSimilarity], result of:
          0.0291001 = score(doc=4285,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 4285, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.016271265 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.016271265 = score(doc=4285,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0291001 = weight(_text_:der in 4285) [ClassicSimilarity], result of:
          0.0291001 = score(doc=4285,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 4285, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0291001 = weight(_text_:der in 4285) [ClassicSimilarity], result of:
          0.0291001 = score(doc=4285,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 4285, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.0291001 = weight(_text_:der in 4285) [ClassicSimilarity], result of:
          0.0291001 = score(doc=4285,freq=62.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.48094094 = fieldWeight in 4285, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.016271265 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.016271265 = score(doc=4285,freq=20.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
      0.33333334 = coord(9/27)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
  14. Neubauer, G.: Visualization of typed links in linked data (2017) 0.07
    0.06787531 = product of:
      0.20362592 = sum of:
        0.014701217 = weight(_text_:und in 3912) [ClassicSimilarity], result of:
          0.014701217 = score(doc=3912,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 3912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.02299894 = weight(_text_:dem in 3912) [ClassicSimilarity], result of:
          0.02299894 = score(doc=3912,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 3912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.021118378 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.021118378 = score(doc=3912,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.014701217 = weight(_text_:und in 3912) [ClassicSimilarity], result of:
          0.014701217 = score(doc=3912,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 3912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.021118378 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.021118378 = score(doc=3912,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.021118378 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.021118378 = score(doc=3912,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.05204982 = weight(_text_:allgemeinen in 3912) [ClassicSimilarity], result of:
          0.05204982 = score(doc=3912,freq=2.0), product of:
            0.15975504 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.027087249 = queryNorm
            0.3258102 = fieldWeight in 3912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.021118378 = weight(_text_:der in 3912) [ClassicSimilarity], result of:
          0.021118378 = score(doc=3912,freq=16.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.34902605 = fieldWeight in 3912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
        0.014701217 = weight(_text_:und in 3912) [ClassicSimilarity], result of:
          0.014701217 = score(doc=3912,freq=8.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.24487628 = fieldWeight in 3912, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3912)
      0.33333334 = coord(9/27)
    
    Abstract
    Das Themengebiet der Arbeit behandelt Visualisierungen von typisierten Links in Linked Data. Die wissenschaftlichen Gebiete, die im Allgemeinen den Inhalt des Beitrags abgrenzen, sind das Semantic Web, das Web of Data und Informationsvisualisierung. Das Semantic Web, das von Tim Berners Lee 2001 erfunden wurde, stellt eine Erweiterung zum World Wide Web (Web 2.0) dar. Aktuelle Forschungen beziehen sich auf die Verknüpfbarkeit von Informationen im World Wide Web. Um es zu ermöglichen, solche Verbindungen wahrnehmen und verarbeiten zu können sind Visualisierungen die wichtigsten Anforderungen als Hauptteil der Datenverarbeitung. Im Zusammenhang mit dem Sematic Web werden Repräsentationen von zusammenhängenden Informationen anhand von Graphen gehandhabt. Der Grund des Entstehens dieser Arbeit ist in erster Linie die Beschreibung der Gestaltung von Linked Data-Visualisierungskonzepten, deren Prinzipien im Rahmen einer theoretischen Annäherung eingeführt werden. Anhand des Kontexts führt eine schrittweise Erweiterung der Informationen mit dem Ziel, praktische Richtlinien anzubieten, zur Vernetzung dieser ausgearbeiteten Gestaltungsrichtlinien. Indem die Entwürfe zweier alternativer Visualisierungen einer standardisierten Webapplikation beschrieben werden, die Linked Data als Netzwerk visualisiert, konnte ein Test durchgeführt werden, der deren Kompatibilität zum Inhalt hatte. Der praktische Teil behandelt daher die Designphase, die Resultate, und zukünftige Anforderungen des Projektes, die durch die Testung ausgearbeitet wurden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.179-199
  15. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.07
    0.06717475 = product of:
      0.20152423 = sum of:
        0.01643646 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.01643646 = score(doc=29,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.030161936 = weight(_text_:aus in 29) [ClassicSimilarity], result of:
          0.030161936 = score(doc=29,freq=6.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.32641116 = fieldWeight in 29, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.02299894 = weight(_text_:dem in 29) [ClassicSimilarity], result of:
          0.02299894 = score(doc=29,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 29, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.024763495 = weight(_text_:der in 29) [ClassicSimilarity], result of:
          0.024763495 = score(doc=29,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 29, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.01643646 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.01643646 = score(doc=29,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.024763495 = weight(_text_:der in 29) [ClassicSimilarity], result of:
          0.024763495 = score(doc=29,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 29, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.024763495 = weight(_text_:der in 29) [ClassicSimilarity], result of:
          0.024763495 = score(doc=29,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 29, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.024763495 = weight(_text_:der in 29) [ClassicSimilarity], result of:
          0.024763495 = score(doc=29,freq=22.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.40926933 = fieldWeight in 29, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
        0.01643646 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.01643646 = score(doc=29,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 29, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=29)
      0.33333334 = coord(9/27)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  16. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.07
    0.06715676 = product of:
      0.20147029 = sum of:
        0.01643646 = weight(_text_:und in 1681) [ClassicSimilarity], result of:
          0.01643646 = score(doc=1681,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 1681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.017414 = weight(_text_:aus in 1681) [ClassicSimilarity], result of:
          0.017414 = score(doc=1681,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.18845356 = fieldWeight in 1681, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.02299894 = weight(_text_:dem in 1681) [ClassicSimilarity], result of:
          0.02299894 = score(doc=1681,freq=4.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25755292 = fieldWeight in 1681, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.02793699 = weight(_text_:der in 1681) [ClassicSimilarity], result of:
          0.02793699 = score(doc=1681,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46171808 = fieldWeight in 1681, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.01643646 = weight(_text_:und in 1681) [ClassicSimilarity], result of:
          0.01643646 = score(doc=1681,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 1681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.02793699 = weight(_text_:der in 1681) [ClassicSimilarity], result of:
          0.02793699 = score(doc=1681,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46171808 = fieldWeight in 1681, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.02793699 = weight(_text_:der in 1681) [ClassicSimilarity], result of:
          0.02793699 = score(doc=1681,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46171808 = fieldWeight in 1681, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.02793699 = weight(_text_:der in 1681) [ClassicSimilarity], result of:
          0.02793699 = score(doc=1681,freq=28.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.46171808 = fieldWeight in 1681, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
        0.01643646 = weight(_text_:und in 1681) [ClassicSimilarity], result of:
          0.01643646 = score(doc=1681,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.27378 = fieldWeight in 1681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1681)
      0.33333334 = coord(9/27)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  17. Hennicke, S.: Linked data und semantische Suchfunktionalitäten in Europeana (2013) 0.07
    0.066785514 = product of:
      0.20035654 = sum of:
        0.026298337 = weight(_text_:und in 947) [ClassicSimilarity], result of:
          0.026298337 = score(doc=947,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.0278624 = weight(_text_:aus in 947) [ClassicSimilarity], result of:
          0.0278624 = score(doc=947,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.02602033 = weight(_text_:dem in 947) [ClassicSimilarity], result of:
          0.02602033 = score(doc=947,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.016894704 = weight(_text_:der in 947) [ClassicSimilarity], result of:
          0.016894704 = score(doc=947,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 947, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.026298337 = weight(_text_:und in 947) [ClassicSimilarity], result of:
          0.026298337 = score(doc=947,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.016894704 = weight(_text_:der in 947) [ClassicSimilarity], result of:
          0.016894704 = score(doc=947,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 947, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.016894704 = weight(_text_:der in 947) [ClassicSimilarity], result of:
          0.016894704 = score(doc=947,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 947, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.016894704 = weight(_text_:der in 947) [ClassicSimilarity], result of:
          0.016894704 = score(doc=947,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 947, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
        0.026298337 = weight(_text_:und in 947) [ClassicSimilarity], result of:
          0.026298337 = score(doc=947,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=947)
      0.33333334 = coord(9/27)
    
    Abstract
    Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.1, S.20-34
  18. Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013) 0.07
    0.066785514 = product of:
      0.20035654 = sum of:
        0.026298337 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.026298337 = score(doc=1115,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 1115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.0278624 = weight(_text_:aus in 1115) [ClassicSimilarity], result of:
          0.0278624 = score(doc=1115,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.30152568 = fieldWeight in 1115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.02602033 = weight(_text_:dem in 1115) [ClassicSimilarity], result of:
          0.02602033 = score(doc=1115,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.29138786 = fieldWeight in 1115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.016894704 = weight(_text_:der in 1115) [ClassicSimilarity], result of:
          0.016894704 = score(doc=1115,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.026298337 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.026298337 = score(doc=1115,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 1115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.016894704 = weight(_text_:der in 1115) [ClassicSimilarity], result of:
          0.016894704 = score(doc=1115,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.016894704 = weight(_text_:der in 1115) [ClassicSimilarity], result of:
          0.016894704 = score(doc=1115,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.016894704 = weight(_text_:der in 1115) [ClassicSimilarity], result of:
          0.016894704 = score(doc=1115,freq=4.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.27922085 = fieldWeight in 1115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
        0.026298337 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.026298337 = score(doc=1115,freq=10.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.438048 = fieldWeight in 1115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1115)
      0.33333334 = coord(9/27)
    
    Abstract
    Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
    Footnote
    Studienarbeit aus dem Jahr 2009 im Fachbereich Informatik - Theoretische Informatik, einseitig bedruckt, Note: 1,0, AKAD Fachhochschule Stuttgart.
  19. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.07
    0.06607063 = product of:
      0.19821188 = sum of:
        0.02333746 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.02333746 = score(doc=557,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.020896798 = weight(_text_:aus in 557) [ClassicSimilarity], result of:
          0.020896798 = score(doc=557,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.22614425 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.019515248 = weight(_text_:dem in 557) [ClassicSimilarity], result of:
          0.019515248 = score(doc=557,freq=2.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.21854089 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.021946864 = weight(_text_:der in 557) [ClassicSimilarity], result of:
          0.021946864 = score(doc=557,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.02333746 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.02333746 = score(doc=557,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.021946864 = weight(_text_:der in 557) [ClassicSimilarity], result of:
          0.021946864 = score(doc=557,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.021946864 = weight(_text_:der in 557) [ClassicSimilarity], result of:
          0.021946864 = score(doc=557,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.021946864 = weight(_text_:der in 557) [ClassicSimilarity], result of:
          0.021946864 = score(doc=557,freq=12.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.36271852 = fieldWeight in 557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
        0.02333746 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.02333746 = score(doc=557,freq=14.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.38872904 = fieldWeight in 557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
      0.33333334 = coord(9/27)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  20. Haffner, A.: Internationalisierung der GND durch das Semantic Web (2012) 0.06
    0.06426683 = product of:
      0.19280049 = sum of:
        0.01992815 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.01992815 = score(doc=318,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.0121898 = weight(_text_:aus in 318) [ClassicSimilarity], result of:
          0.0121898 = score(doc=318,freq=2.0), product of:
            0.09240473 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027087249 = queryNorm
            0.13191749 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.02276779 = weight(_text_:dem in 318) [ClassicSimilarity], result of:
          0.02276779 = score(doc=318,freq=8.0), product of:
            0.08929792 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027087249 = queryNorm
            0.25496438 = fieldWeight in 318, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.02451461 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.02451461 = score(doc=318,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 318, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.01992815 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.01992815 = score(doc=318,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.02451461 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.02451461 = score(doc=318,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 318, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.02451461 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.02451461 = score(doc=318,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 318, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.02451461 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.02451461 = score(doc=318,freq=44.0), product of:
            0.060506597 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027087249 = queryNorm
            0.405156 = fieldWeight in 318, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
        0.01992815 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.01992815 = score(doc=318,freq=30.0), product of:
            0.060035285 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027087249 = queryNorm
            0.33194062 = fieldWeight in 318, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=318)
      0.33333334 = coord(9/27)
    
    Abstract
    Seit Bestehen der Menschheit sammelt der Mensch Informationen, seit Bestehen des Internets stellt der Mensch Informationen ins Web, seit Bestehen des Semantic Webs sollen auch Maschinen in die Lage versetzt werden mit diesen Informationen umzugehen. Das Bibliothekswesen ist einer der Sammler. Seit Jahrhunderten werden Kataloge und Bibliografien sowie Inventarnachweise geführt. Mit der Aufgabe des Zettelkatalogs hin zum Onlinekatalog wurde es Benutzern plötzlich möglich in Beständen komfortabel zu suchen. Durch die Bereitstellung von Daten aus dem Bibliothekswesen im Semantic Web sollen nicht nur die eigenen Katalogsysteme Zugriff auf diese Informationen erhalten, sondern jede beliebige Anwendung, die auf das Web zugreifen kann. Darüber hinaus ist die Vorstellung, dass sich die im Web befindenden Daten - in sofern möglich - miteinander verlinken und zu einem gigantischen semantischen Netz werden, das als ein großer Datenpool verwendet werden kann. Die Voraussetzung hierfür ist wie beim Übergang zum Onlinekatalog die Aufbereitung der Daten in einem passenden Format. Normdaten dienen im Bibliothekswesen bereits dazu eine Vernetzung der unterschiedlichen Bestände zu erlauben. Bei der Erschließung eines Buches wird nicht bloß gesagt, dass jemand, der Thomas Mann heißt, der Autor ist - es wird eine Verknüpfung vom Katalogisat zu dem Thomas Mann erzeugt, der am 6. Juni 1875 in Lübeck geboren und am 12. August 1955 in Zürich verstorben ist. Der Vorteil von Normdateneintragungen ist, dass sie zum eindeutigen Nachweis der Verfasserschaft oder Mitwirkung an einem Werk beitragen. Auch stehen Normdateneintragungen bereits allen Bibliotheken für die Nachnutzung bereit - der Schritt ins Semantic Web wäre somit die Öffnung der Normdaten für alle denkbaren Nutzergruppen.
    Die Gemeinsame Normdatei (GND) ist seit April 2012 die Datei, die die im deutschsprachigen Bibliothekswesen verwendeten Normdaten enthält. Folglich muss auf Basis dieser Daten eine Repräsentation für die Darstellung als Linked Data im Semantic Web etabliert werden. Neben der eigentlichen Bereitstellung von GND-Daten im Semantic Web sollen die Daten mit bereits als Linked Data vorhandenen Datenbeständen (DBpedia, VIAF etc.) verknüpft und nach Möglichkeit kompatibel sein, wodurch die GND einem internationalen und spartenübergreifenden Publikum zugänglich gemacht wird. Dieses Dokument dient vor allem zur Beschreibung, wie die GND-Linked-Data-Repräsentation entstand und dem Weg zur Spezifikation einer eignen Ontologie. Hierfür werden nach einer kurzen Einführung in die GND die Grundprinzipien und wichtigsten Standards für die Veröffentlichung von Linked Data im Semantic Web vorgestellt, um darauf aufbauend existierende Vokabulare und Ontologien des Bibliothekswesens betrachten zu können. Anschließend folgt ein Exkurs in das generelle Vorgehen für die Bereitstellung von Linked Data, wobei die so oft zitierte Open World Assumption kritisch hinterfragt und damit verbundene Probleme insbesondere in Hinsicht Interoperabilität und Nachnutzbarkeit aufgedeckt werden. Um Probleme der Interoperabilität zu vermeiden, wird den Empfehlungen der Library Linked Data Incubator Group [LLD11] gefolgt.
    Im Kapitel Anwendungsprofile als Basis für die Ontologieentwicklung wird die Spezifikation von Dublin Core Anwendungsprofilen kritisch betrachtet, um auszumachen wann und in welcher Form sich ihre Verwendung bei dem Vorhaben Bereitstellung von Linked Data anbietet. In den nachfolgenden Abschnitten wird die GND-Ontologie, welche als Standard für die Serialisierung von GND-Daten im Semantic Web dient, samt Modellierungsentscheidungen näher vorgestellt. Dabei wird insbesondere der Technik des Vocabulary Alignment eine prominente Position eingeräumt, da darin ein entscheidender Mechanismus zur Steigerung der Interoperabilität und Nachnutzbarkeit gesehen wird. Auch wird sich mit der Verlinkung zu externen Datensets intensiv beschäftigt. Hierfür wurden ausgewählte Datenbestände hinsichtlich ihrer Qualität und Aktualität untersucht und Empfehlungen für die Implementierung innerhalb des GND-Datenbestandes gegeben. Abschließend werden eine Zusammenfassung und ein Ausblick auf weitere Schritte gegeben.

Years

Languages

  • d 84
  • e 72
  • no 1
  • pt 1
  • More… Less…

Types

  • a 106
  • el 46
  • x 8
  • m 7
  • r 6
  • s 2
  • n 1
  • More… Less…