Search (164 results, page 1 of 9)

  • × theme_ss:"Multilinguale Probleme"
  1. Jahns, Y.: Sacherschließung - zeitgemäß und zukunftsfähig (2010) 0.05
    0.046729293 = product of:
      0.15187019 = sum of:
        0.026138805 = weight(_text_:23 in 3278) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3278,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.009995825 = weight(_text_:und in 3278) [ClassicSimilarity], result of:
          0.009995825 = score(doc=3278,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.026138805 = weight(_text_:23 in 3278) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3278,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.009995825 = weight(_text_:und in 3278) [ClassicSimilarity], result of:
          0.009995825 = score(doc=3278,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.026138805 = weight(_text_:23 in 3278) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3278,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.009995825 = weight(_text_:und in 3278) [ClassicSimilarity], result of:
          0.009995825 = score(doc=3278,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.026138805 = weight(_text_:23 in 3278) [ClassicSimilarity], result of:
          0.026138805 = score(doc=3278,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
        0.01732748 = weight(_text_:5 in 3278) [ClassicSimilarity], result of:
          0.01732748 = score(doc=3278,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.32240748 = fieldWeight in 3278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.078125 = fieldNorm(doc=3278)
      0.30769232 = coord(8/26)
    
    Date
    16. 5.2010 17:23:40
    Source
    Bibliotheksdienst. 44(2010) H.5, S.461-468
  2. Erstellung multilingualer Thesauri mit Hilfe moderner Softwaretools (2000) 0.04
    0.043467637 = product of:
      0.16145122 = sum of:
        0.031366564 = weight(_text_:23 in 4910) [ClassicSimilarity], result of:
          0.031366564 = score(doc=4910,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.01199499 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.01199499 = score(doc=4910,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.031366564 = weight(_text_:23 in 4910) [ClassicSimilarity], result of:
          0.031366564 = score(doc=4910,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.01199499 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.01199499 = score(doc=4910,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.031366564 = weight(_text_:23 in 4910) [ClassicSimilarity], result of:
          0.031366564 = score(doc=4910,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.01199499 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.01199499 = score(doc=4910,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
        0.031366564 = weight(_text_:23 in 4910) [ClassicSimilarity], result of:
          0.031366564 = score(doc=4910,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.47518367 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=4910)
      0.26923078 = coord(7/26)
    
    Source
    Online Mitteilungen. 2000, Nr.67, S.23-24 [=Mitteilungen VÖB 53(2000) H.2]
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Schirmer, K.; Haller, J.: Zugang zu mehrsprachigen Nachrichten im Internet (2000) 0.04
    0.042852234 = product of:
      0.13926975 = sum of:
        0.02217951 = weight(_text_:23 in 5562) [ClassicSimilarity], result of:
          0.02217951 = score(doc=5562,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3360056 = fieldWeight in 5562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.01199499 = weight(_text_:und in 5562) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5562,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.02217951 = weight(_text_:23 in 5562) [ClassicSimilarity], result of:
          0.02217951 = score(doc=5562,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3360056 = fieldWeight in 5562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.01199499 = weight(_text_:und in 5562) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5562,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.02217951 = weight(_text_:23 in 5562) [ClassicSimilarity], result of:
          0.02217951 = score(doc=5562,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3360056 = fieldWeight in 5562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.014566738 = weight(_text_:die in 5562) [ClassicSimilarity], result of:
          0.014566738 = score(doc=5562,freq=8.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3238241 = fieldWeight in 5562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.01199499 = weight(_text_:und in 5562) [ClassicSimilarity], result of:
          0.01199499 = score(doc=5562,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.29385152 = fieldWeight in 5562, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
        0.02217951 = weight(_text_:23 in 5562) [ClassicSimilarity], result of:
          0.02217951 = score(doc=5562,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3360056 = fieldWeight in 5562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5562)
      0.30769232 = coord(8/26)
    
    Abstract
    In einer Kooperation zwischen smart information und dem IAI werden täglich ca. 20.000 aktuelle Nachrichten des Tages (in deutscher Sprache) linguistisch indexiert. Die Nachrichten werden täglich von der Nachrichtensuchmaschine newscan http://www.newscan.de von smart information aus den verschiedensten InternetQuellen gesammelt. Der Benutzer kann mit frei gewählten Begriffen suchen. Das Ergebnis einer solchen Schlüsselwortsuche wird in Tabellenform ausgegeben, nach Häufigkeit geordnet. Bei einer größeren Ergebnismenge (mehr als zehn Dokumente) werden die Nachrichten automatisch gruppiert (Clusteranalyse) und mit einem Label (Thema) versehen. Diese Themen werden in einer Baumstruktur dargestellt. Der Nutzer kann gezielt auf einen Themenbereich zugreifen. Die Clusteranalyse beruht auf der automatischen Gruppierung der Dokumente und ihrer Stichwörter (Deskriptoren), wie sie von dem automatischen Deskribierungsmodul AUDESC des IAI erzeugt werden. Die in einer großen Datei zusammengestellten Nachrichten werden in jeder Nacht an das IAI geschickt. Mit einer speziell an diese Nachrichten angepaßte Version des Indexierungsmoduls AUTINDEX werden jeder einzelnen Nachricht Schlagwörter zugeordnet
    Pages
    S.23-24
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  4. Womser-Hacker, C.: Zur Rolle von Eigennamen im Cross-Language Information Retrieval (2006) 0.04
    0.042747602 = product of:
      0.1389297 = sum of:
        0.020911044 = weight(_text_:23 in 6073) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6073,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.013850621 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.013850621 = score(doc=6073,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.020911044 = weight(_text_:23 in 6073) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6073,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.013850621 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.013850621 = score(doc=6073,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.020911044 = weight(_text_:23 in 6073) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6073,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.0137336515 = weight(_text_:die in 6073) [ClassicSimilarity], result of:
          0.0137336515 = score(doc=6073,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3053043 = fieldWeight in 6073, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.013850621 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.013850621 = score(doc=6073,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.020911044 = weight(_text_:23 in 6073) [ClassicSimilarity], result of:
          0.020911044 = score(doc=6073,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 6073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
      0.30769232 = coord(8/26)
    
    Abstract
    Im Mittelpunkt des vorliegenden Beitrags steht das Cross-Language Information Retrieval, das mit seinen sprachübergreifenden Funktionen zur Minderung von Sprachbarrieren bei der Informationssuche beiträgt. Hier sollen insbesondere die Eigennamen untersucht werden. Evaluierungsstudien haben gezeigt, dass ihnen aufgrund ihrer besonderen Eigenschaften eine wichtige Rolle bei der Identifikation von relevanten Dokumenten zukommt. Verfahren für die Optimierung des mehrsprachigen Retrievalprozesses werden angesprochen.
    Date
    13.10.2006 9:35:23
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  5. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.04
    0.041840173 = product of:
      0.13598056 = sum of:
        0.015683282 = weight(_text_:23 in 5882) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5882,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.017992485 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5882,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.015683282 = weight(_text_:23 in 5882) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5882,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.017992485 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5882,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.015683282 = weight(_text_:23 in 5882) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5882,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.019269984 = weight(_text_:die in 5882) [ClassicSimilarity], result of:
          0.019269984 = score(doc=5882,freq=14.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.42837906 = fieldWeight in 5882, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.017992485 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5882,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.015683282 = weight(_text_:23 in 5882) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5882,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.30769232 = coord(8/26)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Weiss, A.; Wieden, W.: ¬Die Herstellung mehrsprachiger Informations- und Wissensressourcen in Unternehmen (2000) 0.04
    0.041509908 = product of:
      0.1349072 = sum of:
        0.020911044 = weight(_text_:23 in 5509) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5509,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.013850621 = weight(_text_:und in 5509) [ClassicSimilarity], result of:
          0.013850621 = score(doc=5509,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 5509, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.020911044 = weight(_text_:23 in 5509) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5509,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.013850621 = weight(_text_:und in 5509) [ClassicSimilarity], result of:
          0.013850621 = score(doc=5509,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 5509, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.020911044 = weight(_text_:23 in 5509) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5509,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.009711158 = weight(_text_:die in 5509) [ClassicSimilarity], result of:
          0.009711158 = score(doc=5509,freq=2.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.21588273 = fieldWeight in 5509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.013850621 = weight(_text_:und in 5509) [ClassicSimilarity], result of:
          0.013850621 = score(doc=5509,freq=6.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.33931053 = fieldWeight in 5509, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
        0.020911044 = weight(_text_:23 in 5509) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5509,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5509)
      0.30769232 = coord(8/26)
    
    Abstract
    In diesem Beitrag wird der Versuch unternommen, ausgewählte Probleme aus dein Bereich des betrieblichen Wissensmanagements darzustellen und dazu wort- bzw. terminologiebasierte Lösungsmöglichkeiten einem wissensbasierten Ansatz gegenüberzustellen
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  7. Dini, L.: CACAO : multilingual access to bibliographic records (2007) 0.04
    0.036041796 = product of:
      0.18741734 = sum of:
        0.04435902 = weight(_text_:23 in 126) [ClassicSimilarity], result of:
          0.04435902 = score(doc=126,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.04435902 = weight(_text_:23 in 126) [ClassicSimilarity], result of:
          0.04435902 = score(doc=126,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.04435902 = weight(_text_:23 in 126) [ClassicSimilarity], result of:
          0.04435902 = score(doc=126,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.04435902 = weight(_text_:23 in 126) [ClassicSimilarity], result of:
          0.04435902 = score(doc=126,freq=4.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.6720112 = fieldWeight in 126, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.09375 = fieldNorm(doc=126)
        0.009981258 = product of:
          0.029943772 = sum of:
            0.029943772 = weight(_text_:22 in 126) [ClassicSimilarity], result of:
              0.029943772 = score(doc=126,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.46428138 = fieldWeight in 126, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=126)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
    Date
    20. 1.2008 17:42:23
  8. Caumanns, J.; Hollfelde, S.: Web-basierte Repositories zur Speicherung, Verwaltung und Wiederverwendung multimedialer Lernfragmente (2001) 0.04
    0.03603255 = product of:
      0.11710578 = sum of:
        0.015683282 = weight(_text_:23 in 5881) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5881,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.0146908015 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=5881,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 5881, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.015683282 = weight(_text_:23 in 5881) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5881,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.0146908015 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=5881,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 5881, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.015683282 = weight(_text_:23 in 5881) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5881,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.010300239 = weight(_text_:die in 5881) [ClassicSimilarity], result of:
          0.010300239 = score(doc=5881,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.22897822 = fieldWeight in 5881, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.0146908015 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=5881,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 5881, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
        0.015683282 = weight(_text_:23 in 5881) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5881,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5881)
      0.30769232 = coord(8/26)
    
    Abstract
    Der Einsatz von modularen Lernfragmenten zur automatischen Kurskomposition findet eine ständig wachsende Popularität im E-Learning Bereich, da sich hierdurch insbesondere eine hohe Flexibilität bei der Erstellung von Kursen erzielen lässt. Schwierig erweist sich in diesem Kontext jedoch die adäquate Repräsentation von inhaltlichen Zusammenhängen. In diesem Papier beschreiben wir ein flexibles Modell zur Kodierung von semantischen Beziehungen zwischen Lernfragmenten. Dieses Modell, das im Rahmen des Projektes Teachware on Demand eingesetzt wird, ermöglicht die effiziente Auswahl und Strukturierung von Kursen, da sowohl redundante Informationen kodiert, als auch weniger geeignete Fragmente zur Vervollständigung eines Kurses selektiert werden können
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Studwell, W.E.: Universal subject environment : aspiration for a multinational, multicultural, and multilingual subject access system (1999) 0.03
    0.032814577 = product of:
      0.17063579 = sum of:
        0.036594328 = weight(_text_:23 in 6297) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6297,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6297)
        0.036594328 = weight(_text_:23 in 6297) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6297,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6297)
        0.036594328 = weight(_text_:23 in 6297) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6297,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6297)
        0.036594328 = weight(_text_:23 in 6297) [ClassicSimilarity], result of:
          0.036594328 = score(doc=6297,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.55438095 = fieldWeight in 6297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6297)
        0.024258474 = weight(_text_:5 in 6297) [ClassicSimilarity], result of:
          0.024258474 = score(doc=6297,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.45137048 = fieldWeight in 6297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.109375 = fieldNorm(doc=6297)
      0.1923077 = coord(5/26)
    
    Date
    25.10.1996 14:23:18
    5. 8.2001 13:43:06
  10. Francu, V.: Building a multilingual thesaurus based on UDC (1996) 0.02
    0.023364646 = product of:
      0.075935096 = sum of:
        0.013069402 = weight(_text_:23 in 7410) [ClassicSimilarity], result of:
          0.013069402 = score(doc=7410,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.0049979123 = weight(_text_:und in 7410) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=7410,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.013069402 = weight(_text_:23 in 7410) [ClassicSimilarity], result of:
          0.013069402 = score(doc=7410,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.0049979123 = weight(_text_:und in 7410) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=7410,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.013069402 = weight(_text_:23 in 7410) [ClassicSimilarity], result of:
          0.013069402 = score(doc=7410,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.0049979123 = weight(_text_:und in 7410) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=7410,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.013069402 = weight(_text_:23 in 7410) [ClassicSimilarity], result of:
          0.013069402 = score(doc=7410,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
        0.00866374 = weight(_text_:5 in 7410) [ClassicSimilarity], result of:
          0.00866374 = score(doc=7410,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.16120374 = fieldWeight in 7410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0390625 = fieldNorm(doc=7410)
      0.30769232 = coord(8/26)
    
    Date
    23. 7.1996 19:14:52
    Series
    Advances in knowledge organization; vol.5
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Gupta, P.; Banchs, R.E.; Rosso, P.: Continuous space models for CLIR (2017) 0.02
    0.022673268 = product of:
      0.09825083 = sum of:
        0.015683282 = weight(_text_:23 in 3295) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3295,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
        0.015683282 = weight(_text_:23 in 3295) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3295,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
        0.015683282 = weight(_text_:23 in 3295) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3295,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
        0.015683282 = weight(_text_:23 in 3295) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3295,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
        0.025121208 = weight(_text_:art in 3295) [ClassicSimilarity], result of:
          0.025121208 = score(doc=3295,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.3006999 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
        0.010396489 = weight(_text_:5 in 3295) [ClassicSimilarity], result of:
          0.010396489 = score(doc=3295,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.19344449 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.046875 = fieldNorm(doc=3295)
      0.23076923 = coord(6/26)
    
    Abstract
    We present and evaluate a novel technique for learning cross-lingual continuous space models to aid cross-language information retrieval (CLIR). Our model, which is referred to as external-data composition neural network (XCNN), is based on a composition function that is implemented on top of a deep neural network that provides a distributed learning framework. Different from most existing models, which rely only on available parallel data for training, our learning framework provides a natural way to exploit monolingual data and its associated relevance metadata for learning continuous space representations of language. Cross-language extensions of the obtained models can then be trained by using a small set of parallel data. This property is very helpful for resource-poor languages, therefore, we carry out experiments on the English-Hindi language pair. On the conducted comparative evaluation, the proposed model is shown to outperform state-of-the-art continuous space models with statistically significant margin on two different tasks: parallel sentence retrieval and ad-hoc retrieval.
    Date
    5. 9.2014 10:18:18
    23. 1.2017 14:07:32
  12. Landry, P.: MACS: multilingual access to subject and link management : Extending the Multilingual Capacity of TEL in the EDL Project (2007) 0.02
    0.021706333 = product of:
      0.112872936 = sum of:
        0.026138805 = weight(_text_:23 in 1287) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1287,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1287)
        0.026138805 = weight(_text_:23 in 1287) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1287,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1287)
        0.026138805 = weight(_text_:23 in 1287) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1287,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1287)
        0.026138805 = weight(_text_:23 in 1287) [ClassicSimilarity], result of:
          0.026138805 = score(doc=1287,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 1287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=1287)
        0.008317715 = product of:
          0.024953144 = sum of:
            0.024953144 = weight(_text_:22 in 1287) [ClassicSimilarity], result of:
              0.024953144 = score(doc=1287,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.38690117 = fieldWeight in 1287, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1287)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Content
    Vortrag anlässlich des Workshops: "Extending the multilingual capacity of The European Library in the EDL project Stockholm, Swedish National Library, 22-23 November 2007".
  13. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.02
    0.018904723 = product of:
      0.098304555 = sum of:
        0.018965743 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2782,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.018965743 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2782,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.016286109 = weight(_text_:die in 2782) [ClassicSimilarity], result of:
          0.016286109 = score(doc=2782,freq=10.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.36204636 = fieldWeight in 2782, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.018965743 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.018965743 = score(doc=2782,freq=20.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.025121208 = weight(_text_:art in 2782) [ClassicSimilarity], result of:
          0.025121208 = score(doc=2782,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.3006999 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
      0.1923077 = coord(5/26)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  14. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.02
    0.018168349 = product of:
      0.07872951 = sum of:
        0.0146908015 = weight(_text_:und in 1736) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=1736,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 1736, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.0146908015 = weight(_text_:und in 1736) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=1736,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 1736, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.019269984 = weight(_text_:die in 1736) [ClassicSimilarity], result of:
          0.019269984 = score(doc=1736,freq=14.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.42837906 = fieldWeight in 1736, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.0146908015 = weight(_text_:und in 1736) [ClassicSimilarity], result of:
          0.0146908015 = score(doc=1736,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.35989314 = fieldWeight in 1736, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.010396489 = weight(_text_:5 in 1736) [ClassicSimilarity], result of:
          0.010396489 = score(doc=1736,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.19344449 = fieldWeight in 1736, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.004990629 = product of:
          0.014971886 = sum of:
            0.014971886 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
              0.014971886 = score(doc=1736,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.23214069 = fieldWeight in 1736, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1736)
          0.33333334 = coord(1/3)
      0.23076923 = coord(6/26)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
    Source
    Information - Wissenschaft und Praxis. 65(2014) H.4/5, S.279-287
  15. Fulford, H.: Monolingual or multilingual web sites? : An exploratory study of UK SMEs (2000) 0.02
    0.01811152 = product of:
      0.06727135 = sum of:
        0.013069402 = weight(_text_:23 in 5561) [ClassicSimilarity], result of:
          0.013069402 = score(doc=5561,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.0049979123 = weight(_text_:und in 5561) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=5561,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.013069402 = weight(_text_:23 in 5561) [ClassicSimilarity], result of:
          0.013069402 = score(doc=5561,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.0049979123 = weight(_text_:und in 5561) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=5561,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.013069402 = weight(_text_:23 in 5561) [ClassicSimilarity], result of:
          0.013069402 = score(doc=5561,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.0049979123 = weight(_text_:und in 5561) [ClassicSimilarity], result of:
          0.0049979123 = score(doc=5561,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.12243814 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
        0.013069402 = weight(_text_:23 in 5561) [ClassicSimilarity], result of:
          0.013069402 = score(doc=5561,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.1979932 = fieldWeight in 5561, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5561)
      0.26923078 = coord(7/26)
    
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  16. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.02
    0.017040245 = product of:
      0.073841065 = sum of:
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.015545438 = weight(_text_:die in 5973) [ClassicSimilarity], result of:
          0.015545438 = score(doc=5973,freq=82.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.345581 = fieldWeight in 5973, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0154854655 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=5973,freq=120.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0083737355 = weight(_text_:art in 5973) [ClassicSimilarity], result of:
          0.0083737355 = score(doc=5973,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.100233294 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0034654962 = weight(_text_:5 in 5973) [ClassicSimilarity], result of:
          0.0034654962 = score(doc=5973,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.0644815 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.23076923 = coord(6/26)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
  17. Yetim, F.: Multilinguale Aspekte von Text und Hypertext (1996) 0.02
    0.016216429 = product of:
      0.084325425 = sum of:
        0.017881075 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6118,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.017881075 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6118,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.01682022 = weight(_text_:die in 6118) [ClassicSimilarity], result of:
          0.01682022 = score(doc=6118,freq=6.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.37391987 = fieldWeight in 6118, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.017881075 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.017881075 = score(doc=6118,freq=10.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.013861985 = weight(_text_:5 in 6118) [ClassicSimilarity], result of:
          0.013861985 = score(doc=6118,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.257926 = fieldWeight in 6118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
      0.1923077 = coord(5/26)
    
    Abstract
    In diesem Beitrag werden Aspekte der Multilingualität für die Hypertextforschung behandelt. Dabei werden einige Ergebnisse empirischer Arbeit zu interlingualen Textvergleichen vorgestellt und davon ausgehend ihre Anwendbarkeit auf Hypertext diskutiert. Darüberhinaus wird auf ein für Text und Hypertexte gleichermaßen wichtiges Diskursphänomen, die Konnektivität kontrastiv im Türkischen und Deutschen eingegangen. In diesem Zusammenhang wird auch der Nutzen wissensbasierter Verfahren in der Hypertextforschung angesprochen
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  18. Dilevko, J.; Dali, K.: ¬The challenge of building multilingual collections in Canadian public libraries (2002) 0.02
    0.015194434 = product of:
      0.07901105 = sum of:
        0.018297164 = weight(_text_:23 in 139) [ClassicSimilarity], result of:
          0.018297164 = score(doc=139,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 139, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=139)
        0.018297164 = weight(_text_:23 in 139) [ClassicSimilarity], result of:
          0.018297164 = score(doc=139,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 139, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=139)
        0.018297164 = weight(_text_:23 in 139) [ClassicSimilarity], result of:
          0.018297164 = score(doc=139,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 139, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=139)
        0.018297164 = weight(_text_:23 in 139) [ClassicSimilarity], result of:
          0.018297164 = score(doc=139,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 139, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=139)
        0.0058224006 = product of:
          0.0174672 = sum of:
            0.0174672 = weight(_text_:22 in 139) [ClassicSimilarity], result of:
              0.0174672 = score(doc=139,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.2708308 = fieldWeight in 139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=139)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Date
    10. 9.2000 17:38:22
    23.12.2006 11:23:20
  19. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.01
    0.014410953 = product of:
      0.074936956 = sum of:
        0.019587737 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.019587737 = score(doc=1515,freq=48.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.019587737 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.019587737 = score(doc=1515,freq=48.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.012846655 = weight(_text_:die in 1515) [ClassicSimilarity], result of:
          0.012846655 = score(doc=1515,freq=14.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.28558603 = fieldWeight in 1515, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.019587737 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.019587737 = score(doc=1515,freq=48.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.0033270856 = product of:
          0.009981257 = sum of:
            0.009981257 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.009981257 = score(doc=1515,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  20. Kim, S.; Ko, Y.; Oard, D.W.: Combining lexical and statistical translation evidence for cross-language information retrieval (2015) 0.01
    0.014063388 = product of:
      0.07312962 = sum of:
        0.015683282 = weight(_text_:23 in 1606) [ClassicSimilarity], result of:
          0.015683282 = score(doc=1606,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 1606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1606)
        0.015683282 = weight(_text_:23 in 1606) [ClassicSimilarity], result of:
          0.015683282 = score(doc=1606,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 1606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1606)
        0.015683282 = weight(_text_:23 in 1606) [ClassicSimilarity], result of:
          0.015683282 = score(doc=1606,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 1606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1606)
        0.015683282 = weight(_text_:23 in 1606) [ClassicSimilarity], result of:
          0.015683282 = score(doc=1606,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 1606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1606)
        0.010396489 = weight(_text_:5 in 1606) [ClassicSimilarity], result of:
          0.010396489 = score(doc=1606,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.19344449 = fieldWeight in 1606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.046875 = fieldNorm(doc=1606)
      0.1923077 = coord(5/26)
    
    Abstract
    This article explores how best to use lexical and statistical translation evidence together for cross-language information retrieval (CLIR). Lexical translation evidence is assembled from Wikipedia and from a large machine-readable dictionary, statistical translation evidence is drawn from parallel corpora, and evidence from co-occurrence in the document language provides a basis for limiting the adverse effect of translation ambiguity. Coverage statistics for NII Testbeds and Community for Information Access Research (NTCIR) queries confirm that these resources have complementary strengths. Experiments with translation evidence from a small parallel corpus indicate that even rather rough estimates of translation probabilities can yield further improvements over a strong technique for translation weighting based on using Jensen-Shannon divergence as a term-association measure. Finally, a novel approach to posttranslation query expansion using a random walk over the Wikipedia concept link graph is shown to yield further improvements over alternative techniques for posttranslation query expansion. Evaluation results on the NTCIR-5 English-Korean test collection show statistically significant improvements over strong baselines.
    Source
    Journal of the Association for Information Science and Technology. 66(2015) no.1, S.23-39

Years

Languages

  • e 112
  • d 45
  • f 4
  • ro 2
  • m 1
  • More… Less…

Types

  • a 145
  • el 12
  • m 6
  • s 4
  • n 2
  • x 2
  • p 1
  • More… Less…