Search (19 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Semantische Interoperabilität"
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.05
    0.04670523 = product of:
      0.09341046 = sum of:
        0.06633848 = product of:
          0.19901544 = sum of:
            0.19901544 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.19901544 = score(doc=1000,freq=2.0), product of:
                0.42493033 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.050121464 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.027071979 = weight(_text_:library in 1000) [ClassicSimilarity], result of:
          0.027071979 = score(doc=1000,freq=4.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.2054202 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(2/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
    Imprint
    Wien / Library and Information Studies : Universität
  2. Krause, J.: Heterogenität und Integration : Zur Weiterentwicklung von Inhaltserschließung und Retrieval in sich veränderten Kontexten (2001) 0.03
    0.031112304 = product of:
      0.062224608 = sum of:
        0.043081827 = weight(_text_:digital in 6071) [ClassicSimilarity], result of:
          0.043081827 = score(doc=6071,freq=2.0), product of:
            0.19770671 = queryWeight, product of:
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.050121464 = queryNorm
            0.21790776 = fieldWeight in 6071, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
        0.01914278 = weight(_text_:library in 6071) [ClassicSimilarity], result of:
          0.01914278 = score(doc=6071,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.14525402 = fieldWeight in 6071, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
      0.5 = coord(2/4)
    
    Abstract
    As an important support tool in science research, specialized information systems are rapidly changing their character. The potential for improvement compared with today's usual systems is enormous. This fact will be demonstrated by means of two problem complexes: - WWW search engines, which were developed without any government grants, are increasingly dominating the scene. Does the WWW displace information centers with their high quality databases? What are the results we can get nowadays using general WWW search engines? - In addition to the WWW and specialized databases, scientists now use WWW library catalogues of digital libraries, which combine the catalogues from an entire region or a country. At the same time, however, they are faced with highly decentralized heterogeneous databases which contain the widest range of textual sources and data, e.g. from surveys. One consequence is the presence of serious inconsistencies in quality, relevance and content analysis. Thus, the main problem to be solved is as follows: users must be supplied with heterogeneous data from different sources, modalities and content development processes via a visual user interface without inconsistencies in content development, for example, seriously impairing the quality of the search results, e. g. when phrasing their search inquiry in the terminology to which they are accustomed
  3. Koutsomitropoulos, D.A.; Solomou, G.D.; Alexopoulos, A.D.; Papatheodorou, T.S.: Semantic metadata interoperability and inference-based querying in digital repositories (2009) 0.03
    0.025849098 = product of:
      0.10339639 = sum of:
        0.10339639 = weight(_text_:digital in 3731) [ClassicSimilarity], result of:
          0.10339639 = score(doc=3731,freq=8.0), product of:
            0.19770671 = queryWeight, product of:
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.050121464 = queryNorm
            0.52297866 = fieldWeight in 3731, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.046875 = fieldNorm(doc=3731)
      0.25 = coord(1/4)
    
    Abstract
    Metadata applications have evolved in time into highly structured "islands of information" about digital resources, often bearing a strong semantic interpretation. Scarcely however are these semantics being communicated in machine readable and understandable ways. At the same time, the process for transforming the implied metadata knowledge into explicit Semantic Web descriptions can be problematic and is not always evident. In this article we take upon the well-established Dublin Core metadata standard as well as other metadata schemata, which often appear in digital repositories set-ups, and suggest a proper Semantic Web OWL ontology. In this process the authors cope with discrepancies and incompatibilities, indicative of such attempts, in novel ways. Moreover, we show the potential and necessity of this approach by demonstrating inferences on the resulting ontology, instantiated with actual metadata records. The authors conclude by presenting a working prototype that provides for inference-based querying on top of digital repositories.
  4. Kempf, A.O.; Zapilko, B.: Normdatenpflege in Zeiten der Automatisierung : Erstellung und Evaluation automatisch aufgebauter Thesaurus-Crosskonkordanzen (2013) 0.02
    0.021671817 = product of:
      0.043343633 = sum of:
        0.022971334 = weight(_text_:library in 1021) [ClassicSimilarity], result of:
          0.022971334 = score(doc=1021,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.17430481 = fieldWeight in 1021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.046875 = fieldNorm(doc=1021)
        0.0203723 = product of:
          0.0407446 = sum of:
            0.0407446 = weight(_text_:22 in 1021) [ClassicSimilarity], result of:
              0.0407446 = score(doc=1021,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.23214069 = fieldWeight in 1021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1021)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Thesaurus-Crosskonkordanzen bilden eine wichtige Voraussetzung für die integrierte Suche in einer verteilten Datenstruktur. Ihr Aufbau erfordert allerdings erhebliche personelle Ressourcen. Der vorliegende Beitrag liefert Evaluationsergebnisse des Library Track 2012 der Ontology Alignment Evaluation Initiative (OAEI), in dem Crosskonkordanzen zwischen dem Thesaurus Sozialwissenschaften (TheSoz) und dem Standard Thesaurus Wirtschaft (STW) erstmals automatisch erstellt wurden. Die Evaluation weist auf deutliche Unterschiede in den getesteten Matching- Tools hin und stellt die qualitativen Unterschiede einer automatisch im Vergleich zu einer intellektuell erstellten Crosskonkordanz heraus. Die Ergebnisse sprechen für einen Einsatz automatisch generierter Thesaurus-Crosskonkordanzen, um Domänenexperten eine maschinell erzeugte Vorselektion von möglichen Äquivalenzrelationen anzubieten.
    Date
    18. 8.2013 12:53:22
  5. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.02
    0.01805985 = product of:
      0.0361197 = sum of:
        0.01914278 = weight(_text_:library in 4793) [ClassicSimilarity], result of:
          0.01914278 = score(doc=4793,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.14525402 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.016976917 = product of:
          0.033953834 = sum of:
            0.033953834 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.033953834 = score(doc=4793,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  6. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.01
    0.011883841 = product of:
      0.047535364 = sum of:
        0.047535364 = product of:
          0.09507073 = sum of:
            0.09507073 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.09507073 = score(doc=8365,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2015 16:08:38
  7. Stempfhuber, M.; Zapilko, M.B.: ¬Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken (2013) 0.01
    0.010770457 = product of:
      0.043081827 = sum of:
        0.043081827 = weight(_text_:digital in 917) [ClassicSimilarity], result of:
          0.043081827 = score(doc=917,freq=2.0), product of:
            0.19770671 = queryWeight, product of:
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.050121464 = queryNorm
            0.21790776 = fieldWeight in 917, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.944552 = idf(docFreq=2326, maxDocs=44218)
              0.0390625 = fieldNorm(doc=917)
      0.25 = coord(1/4)
    
    Abstract
    Digitale Bibliotheken stehen derzeit vor der Herausforderung, den veränderten Informationsbedürfnissen ihrer wissenschaftlichen Nutzer nachzukommen und einen integrierten Zugriff auf verschiedene Informationsarten (z.B. Publikationen, Primärdaten, Wissenschaftler- und. Organisationsprofile, Forschungsprojektinformationen) zu bieten, die in zunehmenden Maße digital zur Verfügung stehen und diese in virtuellen Forschungsumgebungen verfügbar zu machen. Die daraus resultierende Herausforderungen struktureller und semantischer Heterogenität werden durch ein weites Feld von verschiedenen Metadaten-Standards, Inhaltserschließungsverfahren sowie Indexierungsansätze für verschiedene Arten von Information getragen. Bisher existiert jedoch kein allgemeingültiges, integrierendes Modell für Organisation und Retrieval von Wissen in Digitalen Bibliotheken. Dieser Beitrag stellt aktuelle Forschungsentwicklungen und -aktivitäten vor, die die Problematik der semantischen Interoperabilität in Digitalen Bibliotheken behandeln und präsentiert ein Modell für eine integrierte Suche in textuellen Daten (z.B. Publikationen) und Faktendaten (z.B. Primärdaten), das verschiedene Ansätze der aktuellen Forschung aufgreift und miteinander in Bezug setzt. Eingebettet in den Forschungszyklus treffen dabei traditionelle Inhaltserschließungsverfahren für Publikationen auf neuere ontologie-basierte Ansätze, die für die Repräsentation komplexerer Informationen und Zusammenhänge (z.B. in sozialwissenschaftlichen Umfragedaten) geeigneter scheinen. Die Vorteile des Modells sind (1) die einfache Wiederverwendbarkeit bestehender Wissensorganisationssysteme sowie (2) ein geringer Aufwand bei der Konzeptmodellierung durch Ontologien.
  8. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.007202696 = product of:
      0.028810784 = sum of:
        0.028810784 = product of:
          0.05762157 = sum of:
            0.05762157 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.05762157 = score(doc=4379,freq=4.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  9. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.01
    0.0067907665 = product of:
      0.027163066 = sum of:
        0.027163066 = product of:
          0.054326132 = sum of:
            0.054326132 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.054326132 = score(doc=2175,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.2009 10:35:21
  10. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.01
    0.0059419204 = product of:
      0.023767682 = sum of:
        0.023767682 = product of:
          0.047535364 = sum of:
            0.047535364 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.047535364 = score(doc=3730,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  11. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.0059419204 = product of:
      0.023767682 = sum of:
        0.023767682 = product of:
          0.047535364 = sum of:
            0.047535364 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.047535364 = score(doc=4184,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 1.2011 10:38:28
  12. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.01
    0.0057428335 = product of:
      0.022971334 = sum of:
        0.022971334 = weight(_text_:library in 557) [ClassicSimilarity], result of:
          0.022971334 = score(doc=557,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.17430481 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.046875 = fieldNorm(doc=557)
      0.25 = coord(1/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
  13. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.01
    0.005093075 = product of:
      0.0203723 = sum of:
        0.0203723 = product of:
          0.0407446 = sum of:
            0.0407446 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
              0.0407446 = score(doc=4183,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.23214069 = fieldWeight in 4183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4183)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 1.2011 10:16:32
  14. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.005093075 = product of:
      0.0203723 = sum of:
        0.0203723 = product of:
          0.0407446 = sum of:
            0.0407446 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.0407446 = score(doc=4408,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Pages
    22 S
  15. Balakrishnan, U.; Krausz, A,; Voss, J.: Cocoda - ein Konkordanztool für bibliothekarische Klassifikationssysteme (2015) 0.00
    0.004785695 = product of:
      0.01914278 = sum of:
        0.01914278 = weight(_text_:library in 2030) [ClassicSimilarity], result of:
          0.01914278 = score(doc=2030,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.14525402 = fieldWeight in 2030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2030)
      0.25 = coord(1/4)
    
    Abstract
    Cocoda (Colibri Concordance Database for library classification systems) ist ein semi-automatisches, webbasiertes Tool für die Erstellung und Verwaltung von Konkordanzen zwischen bibliothekarischen Klassifikationssystemen. Das Tool wird im Rahmen des Teilprojektes "coli-conc" (Colibri-Konkordanzerstellung) des VZG-Projektes Colibri/DDC als eine Open-Source-Software an der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) entwickelt. Im Fokus des Projektes "coli-conc" steht zunächst die Konkordanzbildung zwischen der Dewey Dezimal Klassifikation (DDC) und der Regensburger Verbundklassifikation (RVK). Die inhärenten strukturellen und kulturellen Unterschiede von solch fein gegliederten bibliothekarischen Klassifikationssystemen machen den Konkordanzerstellungsprozess bei rein intellektuellem Ansatz aufwendig und zeitraubend. Um diesen zu vereinfachen und zu beschleunigen, werden die intellektuellen Schritte, die im Teilprojekt "coli-conc" eingesetzt werden, z. T. vom Konkordanztool "Cocoda" automatisch durchgeführt. Die von Cocoda erzeugten Konkordanz-Vorschläge stammen sowohl aus der automatischen Analyse der vergebenen Notationen in den Titeldatensätzen verschiedener Datenbanken als auch aus der vergleichenden Analyse der Begriffswelt der Klassifikationssysteme. Ferner soll "Cocoda" als eine Plattform für die Speicherung, Bereitstellung und Analyse von Konkordanzen dienen, um die Nutzungseffizienz der Konkordanzen zu erhöhen. In dieser Präsentation wird zuerst das Konkordanzprojekt "coli-conc", das die Basis des Konkordanztools "Cocoda" bildet, vorgestellt. Danach werden Algorithmus, Benutzeroberfläche und technische Details des Tools dargelegt. Anhand von Beispielen wird der Konkordanzerstellungsprozess mit Cocoda demonstriert.
  16. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    0.004785695 = product of:
      0.01914278 = sum of:
        0.01914278 = weight(_text_:library in 367) [ClassicSimilarity], result of:
          0.01914278 = score(doc=367,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.14525402 = fieldWeight in 367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  17. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.00
    0.0042442293 = product of:
      0.016976917 = sum of:
        0.016976917 = product of:
          0.033953834 = sum of:
            0.033953834 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.033953834 = score(doc=193,freq=2.0), product of:
                0.17551683 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.050121464 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  18. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.00
    0.004144534 = product of:
      0.016578136 = sum of:
        0.016578136 = weight(_text_:library in 2317) [ClassicSimilarity], result of:
          0.016578136 = score(doc=2317,freq=6.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.12579368 = fieldWeight in 2317, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2317)
      0.25 = coord(1/4)
    
    Abstract
    Der 74. Weltkongress der International Federation of Library Associations and Institutions (IFLA) hat vom 10. bis 14. August 2008 unter dem Motto "Libraries without borders: Navigating towards global understanding" in Quebec, Kanada, stattgefunden. Dort trafen sich mehr als 3000 Bibliothekarinnen und Bibliothekare aus 150 Ländern der Welt zu insgesamt 224 Veranstaltungen und verschiedenen Satellitenkonferenzen. Die IFLA-Präsidentin Prof. Dr. Claudia Lux aus Berlin leitete die Tagung und war gleichzeitig prominenteste Vertreterin der deutschen Delegation, die aus mehr als 80 Kolleginnen und Kollegen bestand und damit im Vergleich zum Vorjahr erfreulich groß war. Wer nicht dabei sein konnte und sich dennoch einen Eindruck über die Konferenz und die Atmosphäre verschaffen möchte, kann dies online tun. Neben dem Programm und einer Vielzahl von Vorträgen sind auf der Website der IFLA auch Links zu Fotos, Videos und Blogs vorhanden. Innerhalb der IFLA wird derzeit an einer Neuorganisation und damit verbunden einer neuen Satzung gearbeitet, unter anderem sollen auch der interne und externe Informationsfluss verbessert werden. Dazu soll Anfang 2009 eine neu gestaltete Website mit einem Content Managementsystem frei geschaltet werden. Das Design der neuen Site wurde in Quebec vorgestellt, eine Präsentation ist im IFLAnet zu finden. Wie in den vergangenen Jahren soll auch in diesem Jahr über die Veranstaltungen der Division IV Bibliographic Control mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie Knowledge Managament berichtet werden.
    Content
    Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
  19. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.00
    0.0023928476 = product of:
      0.00957139 = sum of:
        0.00957139 = weight(_text_:library in 4315) [ClassicSimilarity], result of:
          0.00957139 = score(doc=4315,freq=2.0), product of:
            0.1317883 = queryWeight, product of:
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.050121464 = queryNorm
            0.07262701 = fieldWeight in 4315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6293786 = idf(docFreq=8668, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.25 = coord(1/4)
    
    Content
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.