Search (316 results, page 1 of 16)

  • × theme_ss:"Semantische Interoperabilität"
  1. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.25
    0.2544777 = product of:
      0.8765344 = sum of:
        0.03968691 = product of:
          0.11906073 = sum of:
            0.11906073 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.11906073 = score(doc=306,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.0034222968 = weight(_text_:e in 306) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=306,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.11906073 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.11906073 = score(doc=306,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.29032257 = coord(9/31)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
    Language
    e
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.23
    0.23425065 = product of:
      0.66016096 = sum of:
        0.028347794 = product of:
          0.08504338 = sum of:
            0.08504338 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.08504338 = score(doc=1000,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010066918 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010066918 = score(doc=1000,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.016375672 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.016375672 = score(doc=1000,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010066918 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010066918 = score(doc=1000,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.3548387 = coord(11/31)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.04
    0.037476018 = product of:
      0.16596523 = sum of:
        0.016439209 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.016439209 = score(doc=193,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.009454499 = weight(_text_:im in 193) [ClassicSimilarity], result of:
          0.009454499 = score(doc=193,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15615936 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.008940164 = weight(_text_:20 in 193) [ClassicSimilarity], result of:
          0.008940164 = score(doc=193,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.15185234 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.04098789 = weight(_text_:einzelne in 193) [ClassicSimilarity], result of:
          0.04098789 = score(doc=193,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.3251446 = fieldWeight in 193, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.06644968 = product of:
          0.13289936 = sum of:
            0.13289936 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.13289936 = score(doc=193,freq=2.0), product of:
                0.22699313 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02141793 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.016439209 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.016439209 = score(doc=193,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.007254585 = product of:
          0.01450917 = sum of:
            0.01450917 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.01450917 = score(doc=193,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
      0.22580644 = coord(7/31)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  4. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.03
    0.032352157 = product of:
      0.16715282 = sum of:
        0.017084125 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.017084125 = score(doc=4292,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.056427326 = weight(_text_:literatur in 4292) [ClassicSimilarity], result of:
          0.056427326 = score(doc=4292,freq=6.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.5500022 = fieldWeight in 4292, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.056427326 = weight(_text_:literatur in 4292) [ClassicSimilarity], result of:
          0.056427326 = score(doc=4292,freq=6.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.5500022 = fieldWeight in 4292, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.011345398 = weight(_text_:im in 4292) [ClassicSimilarity], result of:
          0.011345398 = score(doc=4292,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.008784524 = product of:
          0.017569048 = sum of:
            0.017569048 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.017569048 = score(doc=4292,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
        0.017084125 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.017084125 = score(doc=4292,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
      0.19354838 = coord(6/31)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  5. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.03
    0.025796006 = product of:
      0.13327937 = sum of:
        0.018452967 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
          0.018452967 = score(doc=1555,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 1555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.03257833 = weight(_text_:literatur in 1555) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1555,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.03257833 = weight(_text_:literatur in 1555) [ClassicSimilarity], result of:
          0.03257833 = score(doc=1555,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 1555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.016044816 = weight(_text_:im in 1555) [ClassicSimilarity], result of:
          0.016044816 = score(doc=1555,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.015171961 = weight(_text_:20 in 1555) [ClassicSimilarity], result of:
          0.015171961 = score(doc=1555,freq=4.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.25770196 = fieldWeight in 1555, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
        0.018452967 = weight(_text_:und in 1555) [ClassicSimilarity], result of:
          0.018452967 = score(doc=1555,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 1555, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1555)
      0.19354838 = coord(6/31)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
    Date
    11.12.1998 20:07:30
    23.11.2014 17:26:20
    Source
    Bibliothek: Forschung und Praxis. 38(2014) H.2, S.257-265
  6. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.02
    0.022224512 = product of:
      0.13779198 = sum of:
        0.02152846 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.02152846 = score(doc=4782,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.038008053 = weight(_text_:literatur in 4782) [ClassicSimilarity], result of:
          0.038008053 = score(doc=4782,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.038008053 = weight(_text_:literatur in 4782) [ClassicSimilarity], result of:
          0.038008053 = score(doc=4782,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.018718952 = weight(_text_:im in 4782) [ClassicSimilarity], result of:
          0.018718952 = score(doc=4782,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.30917975 = fieldWeight in 4782, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.02152846 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.02152846 = score(doc=4782,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.16129032 = coord(5/31)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  7. Mayr, P.: Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? (2006) 0.02
    0.020121513 = product of:
      0.124753386 = sum of:
        0.018452967 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.018452967 = score(doc=28,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.03257833 = weight(_text_:literatur in 28) [ClassicSimilarity], result of:
          0.03257833 = score(doc=28,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.03257833 = weight(_text_:literatur in 28) [ClassicSimilarity], result of:
          0.03257833 = score(doc=28,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.022690795 = weight(_text_:im in 28) [ClassicSimilarity], result of:
          0.022690795 = score(doc=28,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37478244 = fieldWeight in 28, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
        0.018452967 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.018452967 = score(doc=28,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 28, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=28)
      0.16129032 = coord(5/31)
    
    Abstract
    Der Beitrag beschäftigt sich mit aktuellen Entwicklungen im Bereich des Terminologie Mapping zwischen kontrollierten Vokabularen. Die unterschiedlichen Typen und Ausprägungen von kontrollierten Vokabularen - Thesauri, Klassifikationen, Schlagwortnormdaten und kontrollierte Schlagwortlisten - dienen hauptsächlich der inhaltlichen Erschließung von Literatur und anderen Dokumenttypen und werden u. a. in Datenbanksystemen bei der Deskriptorensuche und zum Browsing angeboten. Die Zusammenführung der heterogenen Indexierungssprachen bei der übergreifenden Datenbankrecherche (crossdatabase retrieval) führt jedoch zu Problemen bei der semantischen Integration der zugrunde liegenden Bestände. Der Beitrag stellt in diesem Kontext den Ansatz sowie die bisherigen Ergebnisse des Projekts" Modellbildung und Heterogenitätsbehandlung" vor. Im Anschluss wird auf Bradford's Law of Scattering (BLS) sowie abgeleitete Einsatzmöglichkeiten des BLS im Projekt Bezug genommen: 1) BLS zur Untersuchung der Auswirkungen der Heterogenitätsbehandlung, 2) BLS bzw. Bradfordizing als alternativer, informationswissenschaftlich begründeter Zugangsmechanismus für Zeitschriftenartikel.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  8. Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008) 0.02
    0.019892886 = product of:
      0.1233359 = sum of:
        0.05104369 = weight(_text_:sprache in 2175) [ClassicSimilarity], result of:
          0.05104369 = score(doc=2175,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.4589652 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.022778835 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.022778835 = score(doc=2175,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.015127198 = weight(_text_:im in 2175) [ClassicSimilarity], result of:
          0.015127198 = score(doc=2175,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 2175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.022778835 = weight(_text_:und in 2175) [ClassicSimilarity], result of:
          0.022778835 = score(doc=2175,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.47985753 = fieldWeight in 2175, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2175)
        0.011607336 = product of:
          0.023214672 = sum of:
            0.023214672 = weight(_text_:22 in 2175) [ClassicSimilarity], result of:
              0.023214672 = score(doc=2175,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.30952093 = fieldWeight in 2175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2175)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    Abstract
    Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
    Date
    22. 8.2009 10:35:21
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
  9. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.02
    0.01785005 = product of:
      0.11067031 = sum of:
        0.017084125 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.017084125 = score(doc=4910,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.03257833 = weight(_text_:literatur in 4910) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4910,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.03257833 = weight(_text_:literatur in 4910) [ClassicSimilarity], result of:
          0.03257833 = score(doc=4910,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.011345398 = weight(_text_:im in 4910) [ClassicSimilarity], result of:
          0.011345398 = score(doc=4910,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.017084125 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.017084125 = score(doc=4910,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.16129032 = coord(5/31)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
  10. Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007) 0.02
    0.017661609 = product of:
      0.078215696 = sum of:
        0.020267617 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.020267617 = score(doc=2439,freq=38.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.016912721 = weight(_text_:im in 2439) [ClassicSimilarity], result of:
          0.016912721 = score(doc=2439,freq=10.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27934635 = fieldWeight in 2439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.007152131 = weight(_text_:20 in 2439) [ClassicSimilarity], result of:
          0.007152131 = score(doc=2439,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.12148187 = fieldWeight in 2439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.0019555981 = weight(_text_:e in 2439) [ClassicSimilarity], result of:
          0.0019555981 = score(doc=2439,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.063523374 = fieldWeight in 2439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.0058563496 = product of:
          0.011712699 = sum of:
            0.011712699 = weight(_text_:29 in 2439) [ClassicSimilarity], result of:
              0.011712699 = score(doc=2439,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15546128 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
        0.020267617 = weight(_text_:und in 2439) [ClassicSimilarity], result of:
          0.020267617 = score(doc=2439,freq=38.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42695636 = fieldWeight in 2439, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2439)
        0.005803668 = product of:
          0.011607336 = sum of:
            0.011607336 = weight(_text_:22 in 2439) [ClassicSimilarity], result of:
              0.011607336 = score(doc=2439,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15476047 = fieldWeight in 2439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2439)
          0.5 = coord(1/2)
      0.22580644 = coord(7/31)
    
    Abstract
    Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
    Content
    Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
    Date
    22. 2.2009 19:10:56
    Language
    e
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.29-31
  11. Niggemann, E.: Wer suchet, der findet? : Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek (2006) 0.02
    0.017322775 = product of:
      0.10740121 = sum of:
        0.044663224 = weight(_text_:sprache in 5812) [ClassicSimilarity], result of:
          0.044663224 = score(doc=5812,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.40159455 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018194871 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018194871 = score(doc=5812,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.022925941 = weight(_text_:im in 5812) [ClassicSimilarity], result of:
          0.022925941 = score(doc=5812,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37866634 = fieldWeight in 5812, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.0034222968 = weight(_text_:e in 5812) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=5812,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 5812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
        0.018194871 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
          0.018194871 = score(doc=5812,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 5812, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5812)
      0.16129032 = coord(5/31)
    
    Abstract
    Elektronische Bibliothekskataloge und Bibliografien haben ihr Monopol bei der Suche nach Büchern, Aufsätzen, musikalischen Werken u. a. verloren. Globale Suchmaschinen sind starke Konkurrenten, und Bibliotheken müssen heute so planen, dass ihre Dienstleistungen auch morgen noch interessant sind. Die Deutsche Bibliothek (DDB) wird ihre traditionelle Katalogrecherche zu einem globalen, netzbasierten Informationssystem erweitern, das die Vorteile der neutralen, qualitätsbasierten Katalogsuche mit den Vorteilen moderner Suchmaschinen zu verbinden sucht. Dieser Beitrag beschäftigt sich mit der Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek. Weitere Entwicklungsstränge sollen nur kurz im Ausblick angerissen werden.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  12. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.02
    0.016380144 = product of:
      0.1015569 = sum of:
        0.018379595 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.018379595 = score(doc=373,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.01337068 = weight(_text_:im in 373) [ClassicSimilarity], result of:
          0.01337068 = score(doc=373,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 373, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.0024444978 = weight(_text_:e in 373) [ClassicSimilarity], result of:
          0.0024444978 = score(doc=373,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.07940422 = fieldWeight in 373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.04898253 = weight(_text_:werke in 373) [ClassicSimilarity], result of:
          0.04898253 = score(doc=373,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.3554425 = fieldWeight in 373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.018379595 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.018379595 = score(doc=373,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
      0.16129032 = coord(5/31)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Series
    Bibliotheks- und Informationspraxis; 70
  13. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.02
    0.015019662 = product of:
      0.11640238 = sum of:
        0.01537747 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.01537747 = score(doc=367,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.016375672 = weight(_text_:im in 367) [ClassicSimilarity], result of:
          0.016375672 = score(doc=367,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 367, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.069271766 = weight(_text_:werke in 367) [ClassicSimilarity], result of:
          0.069271766 = score(doc=367,freq=4.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.50267166 = fieldWeight in 367, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
        0.01537747 = weight(_text_:und in 367) [ClassicSimilarity], result of:
          0.01537747 = score(doc=367,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 367, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.12903225 = coord(4/31)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.01
    0.014139332 = product of:
      0.08766386 = sum of:
        0.01676477 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.01676477 = score(doc=4302,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.021718888 = weight(_text_:literatur in 4302) [ClassicSimilarity], result of:
          0.021718888 = score(doc=4302,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.021718888 = weight(_text_:literatur in 4302) [ClassicSimilarity], result of:
          0.021718888 = score(doc=4302,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.010696544 = weight(_text_:im in 4302) [ClassicSimilarity], result of:
          0.010696544 = score(doc=4302,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.17667414 = fieldWeight in 4302, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.01676477 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.01676477 = score(doc=4302,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.16129032 = coord(5/31)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  15. Effenberger, C.: ¬Die Dewey Dezimalklassifikation als Erschließungsinstrument : optimiertes Retrieval durch eine Versionierung der DDC (2011) 0.01
    0.012788697 = product of:
      0.09911241 = sum of:
        0.018379595 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.018379595 = score(doc=4321,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.01337068 = weight(_text_:im in 4321) [ClassicSimilarity], result of:
          0.01337068 = score(doc=4321,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 4321, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.04898253 = weight(_text_:werke in 4321) [ClassicSimilarity], result of:
          0.04898253 = score(doc=4321,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.3554425 = fieldWeight in 4321, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
        0.018379595 = weight(_text_:und in 4321) [ClassicSimilarity], result of:
          0.018379595 = score(doc=4321,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3871834 = fieldWeight in 4321, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4321)
      0.12903225 = coord(4/31)
    
    Abstract
    Unsere Welt ist voller Informationen. Diese werden seit jeher in eine systematische Ordnung gebracht. In der Geschichte der Wissensreprasentation spielen Bibliotheken und Bibliothekare eine grose Rolle. Bereits in der Antike gab es Kataloge. In der Bibliothek der Ptolemaer in Alexandria erarbeitete der Bibliothekar Kallimachos (ca. 305 . ca. 240 v.Chr.) die .Pinakes_g (Pinax: altgriechisch fur Tafel und Verzeichnis), die sehr wahrscheinlich gleichzeitig einen systematischen Katalog und eine Bibliographie verkorperten. Zusatzlich wurden die Dokumente rudimentar mittels eines vorgegebenen Ordnungssystems erschlossen und der Inhalt ruckte in den Mittelpunkt. Auch Philosophen hatten ihren Anteil an den Grundlagen der Wissensreprasentation. Aristoteles (384_]322 v.Chr.) arbeitete Kriterien aus, nach denen Begriffe voneinander zu differenzieren sind und nach denen Begriffe in eine hierarchische Ordnung gebracht werden. Das waren die Grundlagen fur Klassifikationen. Eine methodische Revolution erleben Klassifikationsforschung und .praxis mit der .Decimal Classification_g (1876) des amerikanischen Bibliothekars Melvil Dewey (1851_]1931). Die Grundidee der Klassifikation war einfach. Das Wissen wurde in maximal zehn Unterbegriffe unterteilt und durch Dezimalzeichen dargestellt. Die Aufstellung der Bucher in der Bibliothek folgte der Klassifikation, so dass thematisch verwandte Werke dicht beieinander standen. Die Dewey Dezimalklassifikation (DDC) wird auch heute noch haufig fur die inhaltliche Erschliesung genutzt und im Umkehrschluss um Dokumente aus einer Fulle von Informationen herausfinden zu konnen.
    Diese These, dass die Versionierung der DDC zu einer verbesserten Suche führt, soll in dieser Arbeit untersucht werden. Es soll geprüft werden, ob die vorgeschlagene Vorgehensweise zu einem besseren Retrievalergebnis führt. Die Arbeit wird zunächst einen Überblick über die theoretischen Hintergründe von inhaltlicher Erschließung und den technischen Methoden liefern, bevor das eigentliche Problem anhand einer Testdatenbank und entsprechender Suchanfragen behandelt wird.
    Content
    Masterarbeit im Studiengang Information Science & Engineering / Informationswissenschaft
  16. Semenova, E.; Stricker, M.: ¬Eine Ontologie der Wissenschaftsdisziplinen : Entwicklung eines Instrumentariums für die Wissenskommunikation (2007) 0.01
    0.012689375 = product of:
      0.07867413 = sum of:
        0.031902306 = weight(_text_:sprache in 1889) [ClassicSimilarity], result of:
          0.031902306 = score(doc=1889,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 1889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.017436413 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.017436413 = score(doc=1889,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.009454499 = weight(_text_:im in 1889) [ClassicSimilarity], result of:
          0.009454499 = score(doc=1889,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15615936 = fieldWeight in 1889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.0024444978 = weight(_text_:e in 1889) [ClassicSimilarity], result of:
          0.0024444978 = score(doc=1889,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.07940422 = fieldWeight in 1889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
        0.017436413 = weight(_text_:und in 1889) [ClassicSimilarity], result of:
          0.017436413 = score(doc=1889,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3673144 = fieldWeight in 1889, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1889)
      0.16129032 = coord(5/31)
    
    Abstract
    Interdisziplinarität als Kennzeichen des modernen Wissenschaftslebens setzt in Forschung und Lehre eine effiziente Wissenschaftskommunikation voraus, bei der sich die Partner über eine gemeinsame Sprache verständigen können. Klassifikationen und Thesauri übernehmen dabei eine wichtige Rolle. Zu beobachten ist, dass vorhandene Instrumente in ihrem Gefüge zu inflexibel sind, um die komplex ineinander verwobenen Felder der Wissenschaft in ihrer dynamischen Entwicklung adäquat abzubilden, zur (Selbst-)Verständigung über das Wesen und Struktur der Wissenschaftslandschaft sowie zum erfolgreichen Wissensaustausch beizutragen. Ontologien erschließen neue Wege zur Lösung dieser Aufgaben. In einigen Einzelwissenschaften und Teilgebieten ist diesbezüglich eine rege Tätigkeit zu beobachten, es fehlt allerdings noch ein fachübergreifendes Instrumentarium. Im Vortrag wird das von der DFG geförderte Projekt "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" vorgestellt. Es gilt, die oben beschriebene Lücke zu schließen und eine umfassende Ontologie für Erschließung, Recherche und Datenaustausch bei der Wissenschaftskommunikation zu erstellen. Diese Ontologie soll dazu beitragen, eine effiziente Wissenskommunikation, besonders bei interdisziplinären Projekten, zu unterstützen, verfügbare Ressourcen auffindbar zu machen und mögliche Knotenstellen künftiger Kooperationen zu verdeutlichen. Ausgehend von der Kritik an vorhandenen Instrumenten wird derzeit ein Begriffsmodell für die Beschreibung von Wissenschaftsdisziplinen, ihrer zentralen Facetten sowie ihrer interdisziplinären Beziehungen untereinander entwickelt. Das Modell, inspiriert vom Topic Maps Paradigma, basiert auf einer überschaubaren Menge zentraler Konzepte sowie prinzipiell inverser Beziehungen. Eine entsprechende Ontologie wird in unterschiedlichen (technischen) Beschreibungsformaten formuliert werden können. Dies bildet den Grundstein für den Fokus des Projekts, flexible, verteilte, benutzer- wie pflegefreundliche technische Umsetzungen zu entwickeln und mit Kooperationspartnern zu implementieren.
    Source
    Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel]
  17. Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010) 0.01
    0.012219089 = product of:
      0.07575835 = sum of:
        0.012865716 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.012865716 = score(doc=4285,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.016211087 = weight(_text_:im in 4285) [ClassicSimilarity], result of:
          0.016211087 = score(doc=4285,freq=12.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2677575 = fieldWeight in 4285, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.028691525 = weight(_text_:einzelne in 4285) [ClassicSimilarity], result of:
          0.028691525 = score(doc=4285,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.22760123 = fieldWeight in 4285, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
        0.005124306 = product of:
          0.010248612 = sum of:
            0.010248612 = weight(_text_:29 in 4285) [ClassicSimilarity], result of:
              0.010248612 = score(doc=4285,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.13602862 = fieldWeight in 4285, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4285)
          0.5 = coord(1/2)
        0.012865716 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
          0.012865716 = score(doc=4285,freq=20.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27102837 = fieldWeight in 4285, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4285)
      0.16129032 = coord(5/31)
    
    Abstract
    Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
    Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
    Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
    Pages
    29 S
  18. Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006) 0.01
    0.011723658 = product of:
      0.090858355 = sum of:
        0.038282767 = weight(_text_:sprache in 5811) [ClassicSimilarity], result of:
          0.038282767 = score(doc=5811,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 5811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.020923696 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.020923696 = score(doc=5811,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.010728197 = weight(_text_:20 in 5811) [ClassicSimilarity], result of:
          0.010728197 = score(doc=5811,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 5811, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
        0.020923696 = weight(_text_:und in 5811) [ClassicSimilarity], result of:
          0.020923696 = score(doc=5811,freq=18.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.4407773 = fieldWeight in 5811, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5811)
      0.12903225 = coord(4/31)
    
    Abstract
    Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
    Date
    19. 7.2006 20:14:38
  19. Lösse, M.; Svensson, L.: "Classification at a Crossroad" : Internationales UDC-Seminar 2009 in Den Haag, Niederlande (2010) 0.01
    0.011562099 = product of:
      0.071685016 = sum of:
        0.013949131 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.013949131 = score(doc=4379,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.022690795 = weight(_text_:im in 4379) [ClassicSimilarity], result of:
          0.022690795 = score(doc=4379,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37478244 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.008784524 = product of:
          0.017569048 = sum of:
            0.017569048 = weight(_text_:29 in 4379) [ClassicSimilarity], result of:
              0.017569048 = score(doc=4379,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23319192 = fieldWeight in 4379, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
        0.013949131 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.013949131 = score(doc=4379,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 4379, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4379)
        0.01231144 = product of:
          0.02462288 = sum of:
            0.02462288 = weight(_text_:22 in 4379) [ClassicSimilarity], result of:
              0.02462288 = score(doc=4379,freq=4.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.32829654 = fieldWeight in 4379, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4379)
          0.5 = coord(1/2)
      0.16129032 = coord(5/31)
    
    Abstract
    Am 29. und 30. Oktober 2009 fand in der Königlichen Bibliothek in Den Haag das zweite internationale UDC-Seminar zum Thema "Classification at a Crossroad" statt. Organisiert wurde diese Konferenz - wie auch die erste Konferenz dieser Art im Jahr 2007 - vom UDC-Konsortium (UDCC). Im Mittelpunkt der diesjährigen Veranstaltung stand die Erschließung des World Wide Web unter besserer Nutzung von Klassifikationen (im Besonderen natürlich der UDC), einschließlich benutzerfreundlicher Repräsentationen von Informationen und Wissen. Standards, neue Technologien und Dienste, semantische Suche und der multilinguale Zugriff spielten ebenfalls eine Rolle. 135 Teilnehmer aus 35 Ländern waren dazu nach Den Haag gekommen. Das Programm umfasste mit 22 Vorträgen aus 14 verschiedenen Ländern eine breite Palette, wobei Großbritannien mit fünf Beiträgen am stärksten vertreten war. Die Tagesschwerpunkte wurden an beiden Konferenztagen durch die Eröffnungsvorträge gesetzt, die dann in insgesamt sechs thematischen Sitzungen weiter vertieft wurden.
    Date
    22. 1.2010 15:06:54
    Theme
    Klassifikationssysteme im Online-Retrieval
  20. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.01
    0.011249666 = product of:
      0.08718491 = sum of:
        0.031902306 = weight(_text_:sprache in 3236) [ClassicSimilarity], result of:
          0.031902306 = score(doc=3236,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 3236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.020955963 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.020955963 = score(doc=3236,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.01337068 = weight(_text_:im in 3236) [ClassicSimilarity], result of:
          0.01337068 = score(doc=3236,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 3236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
        0.020955963 = weight(_text_:und in 3236) [ClassicSimilarity], result of:
          0.020955963 = score(doc=3236,freq=26.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.441457 = fieldWeight in 3236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3236)
      0.12903225 = coord(4/31)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf

Years

Languages

  • e 231
  • d 81
  • pt 1
  • More… Less…

Types

  • a 215
  • el 96
  • m 17
  • x 11
  • r 9
  • s 7
  • n 2
  • p 2
  • More… Less…

Subjects