Search (24 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Semantische Interoperabilität"
  1. Galinski, C.: Fragen der semantischen Interoperabilität brechen jetzt überall auf (o.J.) 0.06
    0.059083853 = product of:
      0.118167706 = sum of:
        0.118167706 = sum of:
          0.07648084 = weight(_text_:probleme in 4183) [ClassicSimilarity], result of:
            0.07648084 = score(doc=4183,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.31443292 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
          0.041686863 = weight(_text_:22 in 4183) [ClassicSimilarity], result of:
            0.041686863 = score(doc=4183,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.23214069 = fieldWeight in 4183, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4183)
      0.5 = coord(1/2)
    
    Abstract
    Terminologienormung ist eine Grundbedingung für internationalen Handel und birgt große Einsparungspotenziale in der industriellen Produktion. Tassilo Pellegrini sprach mit Dr. Christian Galinski, Leiter des Internationalen Informationszentrums für Terminologie (Infoterm), über Probleme der Mehrsprachigkeit, di Wechselwirkung zwischen Technik und Terminologie und wie durch semantische Interoperabilität die Schnittstelle Mensch-Maschine verbessert werden kann.
    Date
    22. 1.2011 10:16:32
  2. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.049236543 = product of:
      0.09847309 = sum of:
        0.09847309 = sum of:
          0.06373403 = weight(_text_:probleme in 4793) [ClassicSimilarity], result of:
            0.06373403 = score(doc=4793,freq=2.0), product of:
              0.24323422 = queryWeight, product of:
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.05128058 = queryNorm
              0.2620274 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.743203 = idf(docFreq=1046, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
          0.034739055 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
            0.034739055 = score(doc=4793,freq=2.0), product of:
              0.17957586 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05128058 = queryNorm
              0.19345059 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
      0.5 = coord(1/2)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
    Theme
    Multilinguale Probleme
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.03
    0.033936314 = product of:
      0.06787263 = sum of:
        0.06787263 = product of:
          0.20361789 = sum of:
            0.20361789 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.20361789 = score(doc=1000,freq=2.0), product of:
                0.43475732 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05128058 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Svensson, L.: Panta rei : die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen (2010) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 2340) [ClassicSimilarity], result of:
              0.12746806 = score(doc=2340,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2340)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Jahns, Y.: Sacherschließung - zeitgemäß und zukunftsfähig (2010) 0.03
    0.031867016 = product of:
      0.06373403 = sum of:
        0.06373403 = product of:
          0.12746806 = sum of:
            0.12746806 = weight(_text_:probleme in 3278) [ClassicSimilarity], result of:
              0.12746806 = score(doc=3278,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5240548 = fieldWeight in 3278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3278)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Multilinguale Probleme
  6. Dunckel, P.: Zusammenführung mehrerer Thesauri zu einem gemeinsamen Begriffssystem : Probleme und Lösungsansätze (2017) 0.03
    0.027040062 = product of:
      0.054080125 = sum of:
        0.054080125 = product of:
          0.10816025 = sum of:
            0.10816025 = weight(_text_:probleme in 4233) [ClassicSimilarity], result of:
              0.10816025 = score(doc=4233,freq=4.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.4446753 = fieldWeight in 4233, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4233)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Zeitalter der digitalen Vernetzung und im Zuge zunehmend interdisziplinärer und internationaler Forschungsbestrebungen gewinnt die Interoperabilität von Informationssystemen stärker an Bedeutung. Ein wichtiger Schritt, um diese Interoperabilität zu erreichen und einen zentralen Zugang zu verteilten Systemen zu ermöglichen, liegt in der Zusammenführung der jeweiligen Erschließungsinstrumente der Informationssysteme. Eine Integration der verschiedenen kontrollierten Vokabulare erlaubt einen Datenaustausch zwischen den diversen Informationssystemen. Außerdem ermöglicht und vereinfacht sie eine systemübergreifende Recherche über mehrere Datenbanken, ohne dass eine Suchanfrage mehrmals formuliert oder umformuliert werden muss. Es existieren unterschiedliche Methoden und Instrumente sowie Strukturmodelle, mit denen eine Thesaurusintegration durchgeführt werden kann. Die am weitesten verbreitete Methode, das Mapping, ist sogar als ISO-Norm formuliert. Bei einer Thesauruszusammenführung können diverse Probleme auftreten. Jedoch gibt es Lösungsansätze, mit denen den Herausforderungen begegnet werden kann.
  7. Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013) 0.03
    0.025493614 = product of:
      0.05098723 = sum of:
        0.05098723 = product of:
          0.10197446 = sum of:
            0.10197446 = weight(_text_:probleme in 1115) [ClassicSimilarity], result of:
              0.10197446 = score(doc=1115,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.41924387 = fieldWeight in 1115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1115)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.02
    0.024317337 = product of:
      0.048634674 = sum of:
        0.048634674 = product of:
          0.09726935 = sum of:
            0.09726935 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.09726935 = score(doc=8365,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2015 16:08:38
  9. Wilde, E.: Semantische Interoperabilität von XML Schemas (2005) 0.02
    0.022306912 = product of:
      0.044613823 = sum of:
        0.044613823 = product of:
          0.08922765 = sum of:
            0.08922765 = weight(_text_:probleme in 155) [ClassicSimilarity], result of:
              0.08922765 = score(doc=155,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.3668384 = fieldWeight in 155, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=155)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    XML bietet zwar durchaus das allgemein akzeptierte Verfahren zum Austausch strukturierter Daten, das in vielen Anwendungen benötigt wird, ist aber dennoch nicht ausreichend, Interoperabilität zwischen anwendungen sicherzustellen. Probleme können auf verschiedenen Ebenen entstehen, beginned bei so grundlegenden Dingen wie Zeichenkodierungen, bis hin zu Problemen des inhaltlichen Verständnisses von XML Dokumenten. Im vorliegeneden Artikel soll auf den letzteren Aspekt näher eingegangen werden, also die Frage, was notwendig ist, damit der Austausch von XML nicht nur syntaktisch funktioniert, sondern auch auf einem gemeinsamen Verständnis beider Seiten basiert.
  10. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 2782) [ClassicSimilarity], result of:
              0.07648084 = score(doc=2782,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 2782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Multilinguale Probleme
  11. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.02
    0.01912021 = product of:
      0.03824042 = sum of:
        0.03824042 = product of:
          0.07648084 = sum of:
            0.07648084 = weight(_text_:probleme in 4910) [ClassicSimilarity], result of:
              0.07648084 = score(doc=4910,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.31443292 = fieldWeight in 4910, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4910)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
  12. Dahlberg, I.: Kompatibilität und Integration : Probleme und Lösungen in der Wissensorganisation (2008) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 1677) [ClassicSimilarity], result of:
              0.06373403 = score(doc=1677,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 1677, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1677)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 4335) [ClassicSimilarity], result of:
              0.06373403 = score(doc=4335,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4335)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Multilinguale Probleme
  14. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 29) [ClassicSimilarity], result of:
              0.06373403 = score(doc=29,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 29, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=29)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
  15. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.02
    0.015933508 = product of:
      0.031867016 = sum of:
        0.031867016 = product of:
          0.06373403 = sum of:
            0.06373403 = weight(_text_:probleme in 3308) [ClassicSimilarity], result of:
              0.06373403 = score(doc=3308,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2620274 = fieldWeight in 3308, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3308)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Multilinguale Probleme
  16. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.014738534 = product of:
      0.029477067 = sum of:
        0.029477067 = product of:
          0.058954135 = sum of:
            0.058954135 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.058954135 = score(doc=4379,freq=4.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
  17. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.01
    0.0138956215 = product of:
      0.027791243 = sum of:
        0.027791243 = product of:
          0.055582486 = sum of:
            0.055582486 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.055582486 = score(doc=2175,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 10:35:21
  18. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.012746807 = product of:
      0.025493614 = sum of:
        0.025493614 = product of:
          0.05098723 = sum of:
            0.05098723 = weight(_text_:probleme in 4302) [ClassicSimilarity], result of:
              0.05098723 = score(doc=4302,freq=2.0), product of:
                0.24323422 = queryWeight, product of:
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.05128058 = queryNorm
                0.20962194 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.743203 = idf(docFreq=1046, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  19. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.01
    0.012158669 = product of:
      0.024317337 = sum of:
        0.024317337 = product of:
          0.048634674 = sum of:
            0.048634674 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.048634674 = score(doc=3730,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  20. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.012158669 = product of:
      0.024317337 = sum of:
        0.024317337 = product of:
          0.048634674 = sum of:
            0.048634674 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.048634674 = score(doc=4184,freq=2.0), product of:
                0.17957586 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05128058 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2011 10:38:28