Search (360 results, page 1 of 18)

  • × theme_ss:"Retrievalalgorithmen"
  1. Ziegler, B.: ESS: ein schneller Algorithmus zur Mustersuche in Zeichenfolgen (1996) 0.07
    0.07017441 = product of:
      0.21052322 = sum of:
        0.013559209 = weight(_text_:e in 7543) [ClassicSimilarity], result of:
          0.013559209 = score(doc=7543,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 7543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=7543)
        0.19696401 = weight(_text_:69 in 7543) [ClassicSimilarity], result of:
          0.19696401 = score(doc=7543,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.8473793 = fieldWeight in 7543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.109375 = fieldNorm(doc=7543)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Informatik: Forschung und Entwicklung. 11(1996) no.2, S.69-83
  2. Sánchez-de-Madariaga, R.; Fernández-del-Castillo, J.R.: ¬The bootstrapping of the Yarowsky algorithm in real corpora (2009) 0.04
    0.035087205 = product of:
      0.10526161 = sum of:
        0.0067796046 = weight(_text_:e in 2451) [ClassicSimilarity], result of:
          0.0067796046 = score(doc=2451,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.1111659 = fieldWeight in 2451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2451)
        0.098482005 = weight(_text_:69 in 2451) [ClassicSimilarity], result of:
          0.098482005 = score(doc=2451,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.42368966 = fieldWeight in 2451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2451)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Information processing and management. 45(2009) no.1, S.55-69
  3. Baeza-Yates, R.; Navarro, G.: Block addressing indices for approximate text retrieval (2000) 0.03
    0.030074745 = product of:
      0.090224236 = sum of:
        0.0058110896 = weight(_text_:e in 4295) [ClassicSimilarity], result of:
          0.0058110896 = score(doc=4295,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.09528506 = fieldWeight in 4295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4295)
        0.08441315 = weight(_text_:69 in 4295) [ClassicSimilarity], result of:
          0.08441315 = score(doc=4295,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.36316258 = fieldWeight in 4295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.046875 = fieldNorm(doc=4295)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Journal of the American Society for Information Science. 51(2000) no.1, S.69-82
  4. Dominich, S.; Skrop, A.: PageRank and interaction information retrieval (2005) 0.03
    0.030074745 = product of:
      0.090224236 = sum of:
        0.0058110896 = weight(_text_:e in 3268) [ClassicSimilarity], result of:
          0.0058110896 = score(doc=3268,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.09528506 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
        0.08441315 = weight(_text_:69 in 3268) [ClassicSimilarity], result of:
          0.08441315 = score(doc=3268,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.36316258 = fieldWeight in 3268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.046875 = fieldNorm(doc=3268)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Journal of the American Society for Information Science and Technology. 56(2005) no.1, S.63-69
  5. Li, H.; Wu, H.; Li, D.; Lin, S.; Su, Z.; Luo, X.: PSI: A probabilistic semantic interpretable framework for fine-grained image ranking (2018) 0.03
    0.030074745 = product of:
      0.090224236 = sum of:
        0.0058110896 = weight(_text_:e in 4577) [ClassicSimilarity], result of:
          0.0058110896 = score(doc=4577,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.09528506 = fieldWeight in 4577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4577)
        0.08441315 = weight(_text_:69 in 4577) [ClassicSimilarity], result of:
          0.08441315 = score(doc=4577,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.36316258 = fieldWeight in 4577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.046875 = fieldNorm(doc=4577)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Journal of the Association for Information Science and Technology. 69(2018) no.12, S.1488-1501
  6. Zhu, J.; Han, L.; Gou, Z.; Yuan, X.: ¬A fuzzy clustering-based denoising model for evaluating uncertainty in collaborative filtering recommender systems (2018) 0.03
    0.025062285 = product of:
      0.075186856 = sum of:
        0.0048425747 = weight(_text_:e in 4460) [ClassicSimilarity], result of:
          0.0048425747 = score(doc=4460,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.07940422 = fieldWeight in 4460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4460)
        0.070344284 = weight(_text_:69 in 4460) [ClassicSimilarity], result of:
          0.070344284 = score(doc=4460,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.30263546 = fieldWeight in 4460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4460)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Journal of the Association for Information Science and Technology. 69(2018) no.9, S.1109-1121
  7. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.024728954 = product of:
      0.07418686 = sum of:
        0.03969549 = weight(_text_:der in 2051) [ClassicSimilarity], result of:
          0.03969549 = score(doc=2051,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.4188313 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.034491375 = product of:
          0.06898275 = sum of:
            0.06898275 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.06898275 = score(doc=2051,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  8. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.02
    0.020494914 = product of:
      0.06148474 = sum of:
        0.015496239 = weight(_text_:e in 402) [ClassicSimilarity], result of:
          0.015496239 = score(doc=402,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2540935 = fieldWeight in 402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.125 = fieldNorm(doc=402)
        0.0459885 = product of:
          0.091977 = sum of:
            0.091977 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.091977 = score(doc=402,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  9. Ayadi, H.; Torjmen-Khemakhem, M.; Daoud, M.; Xiangji Huang, J.; Ben Jemaa, M.: MF-Re-Rank : a modality feature-based re-ranking model for medical image retrieval (2018) 0.02
    0.02004983 = product of:
      0.06014949 = sum of:
        0.0038740598 = weight(_text_:e in 4459) [ClassicSimilarity], result of:
          0.0038740598 = score(doc=4459,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.063523374 = fieldWeight in 4459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4459)
        0.05627543 = weight(_text_:69 in 4459) [ClassicSimilarity], result of:
          0.05627543 = score(doc=4459,freq=2.0), product of:
            0.23243901 = queryWeight, product of:
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.042429138 = queryNorm
            0.24210837 = fieldWeight in 4459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.478287 = idf(docFreq=501, maxDocs=44218)
              0.03125 = fieldNorm(doc=4459)
      0.33333334 = coord(2/6)
    
    Language
    e
    Source
    Journal of the Association for Information Science and Technology. 69(2018) no.9, S.1095-1108
  10. Lanvent, A.: Praxis - Windows-Suche und Indexdienst : Auch Windows kann bei der Suche den Turbo einlegen: mit dem Indexdienst (2004) 0.02
    0.01815398 = product of:
      0.05446194 = sum of:
        0.0048425747 = weight(_text_:e in 3316) [ClassicSimilarity], result of:
          0.0048425747 = score(doc=3316,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.07940422 = fieldWeight in 3316, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
        0.049619365 = weight(_text_:der in 3316) [ClassicSimilarity], result of:
          0.049619365 = score(doc=3316,freq=36.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.5235391 = fieldWeight in 3316, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
      0.33333334 = coord(2/6)
    
    Content
    "Für eine 4-GByte-Festplatte mit mehreren Partitionen sucht Windows XP im Volltextmodus weit über zwei Stunden. Der Indexdienst verkürzt diese Recherchedauer drastisch um mehr als eine Stunde. Im Gegensatz zu den Indizes der kommerziellen Suchwerkzeuge erfasst der Windows-Indexdienst nur Text-, HTML- und OfficeDateien über entsprechend integrierte Dokumentfilter. Da er weder ZIP-Files noch PDFs erkennt und auch keine E-Mails scannt, ist er mit komplexen Anfragen schnell überfordert. Standardmäßig ist der Indexdienst zwar installiert, aber nicht aktiviert. Das erledigt der Anwender über Start/Arbeitsplatz und den Befehl Verwalten aus dem Kontextmenü. In der Computerverwaltung aktiviert der Benutzer den Eintrag Indexdienst und wählt Starten aus dem Kontextmenü. Die zu indizierenden Elemente verwaltet Windows über so genannte Kataloge, mit deren Hilfe der User bestimmt, welche Dateitypen aus welchen Ordnern indiziert werden sollen. Zwar kann der Anwender neben dem Katalog System weitere Kataloge einrichten. Ausreichend ist es aber in den meisten Fällen, dem Katalog System weitere Indizierungsordner über die Befehle Neu/Verzeichnis hinzuzufügen. Klickt der Benutzer dann einen der Indizierungsordner mit der rechten Maustaste an und wählt Alle Tasks/Erneut prüfen (Vollständig), beginnt der mitunter langwierige Indizierungsprozess. Über den Eigenschaften-Dialog lässt sich allerdings der Leistungsverbrauch drosseln. Eine inkrementelle Indizierung, bei der Windows nur neue Elemente im jeweiligen Verzeichnis unter die Lupe nimmt, erreicht der Nutzer über Alle Tasks/Erneut prüfen (inkrementell). Einschalten lässt sich der Indexdienst auch über die Eigenschaften eines Ordners und den Befehl Erweitert/ln-halt für schnelle Dateisuche indizieren. Auskunft über die dem Indexdienst zugeordneten Ordner und Laufwerke erhalten Sie, wenn Sie die WindowsSuche starten und Weitere Optionen/ Andere Suchoptionen/Bevorzugte Einstellungen ändern/Indexdienst verwenden anklicken."
  11. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.02
    0.017933048 = product of:
      0.053799145 = sum of:
        0.013559209 = weight(_text_:e in 2134) [ClassicSimilarity], result of:
          0.013559209 = score(doc=2134,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 2134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=2134)
        0.040239938 = product of:
          0.080479875 = sum of:
            0.080479875 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.080479875 = score(doc=2134,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    30. 3.2001 13:32:22
    Language
    e
  12. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.02
    0.017933048 = product of:
      0.053799145 = sum of:
        0.013559209 = weight(_text_:e in 3445) [ClassicSimilarity], result of:
          0.013559209 = score(doc=3445,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 3445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=3445)
        0.040239938 = product of:
          0.080479875 = sum of:
            0.080479875 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.080479875 = score(doc=3445,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    25. 8.2005 17:42:22
    Language
    e
  13. Koopman, R.: ¬Ein OPAC mit Gewichtungsalgorithmen : Der PICA Micro OPC (1996) 0.02
    0.016733063 = product of:
      0.05019919 = sum of:
        0.009685149 = weight(_text_:e in 4114) [ClassicSimilarity], result of:
          0.009685149 = score(doc=4114,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.15880844 = fieldWeight in 4114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=4114)
        0.040514037 = weight(_text_:der in 4114) [ClassicSimilarity], result of:
          0.040514037 = score(doc=4114,freq=6.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.42746788 = fieldWeight in 4114, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4114)
      0.33333334 = coord(2/6)
    
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; Bd.25
    Source
    Zukunft der Sacherschließung im OPAC: Vorträge des 2. Düsseldorfer OPAC-Kolloquiums am 21. Juni 1995. Hrsg.: E. Niggemann u. K. Lepsky
  14. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.01648597 = product of:
      0.049457908 = sum of:
        0.02646366 = weight(_text_:der in 1484) [ClassicSimilarity], result of:
          0.02646366 = score(doc=1484,freq=4.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.27922085 = fieldWeight in 1484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.02299425 = product of:
          0.0459885 = sum of:
            0.0459885 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.0459885 = score(doc=1484,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  15. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.02
    0.016159933 = product of:
      0.048479795 = sum of:
        0.028359829 = weight(_text_:der in 3276) [ClassicSimilarity], result of:
          0.028359829 = score(doc=3276,freq=6.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.29922754 = fieldWeight in 3276, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.020119969 = product of:
          0.040239938 = sum of:
            0.040239938 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.040239938 = score(doc=3276,freq=2.0), product of:
                0.14857961 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042429138 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
  16. Notess, G.R.: Search engine relevance : the never-ending quest (2000) 0.02
    0.0154354405 = product of:
      0.04630632 = sum of:
        0.013559209 = weight(_text_:e in 4797) [ClassicSimilarity], result of:
          0.013559209 = score(doc=4797,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.2223318 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
        0.03274711 = weight(_text_:der in 4797) [ClassicSimilarity], result of:
          0.03274711 = score(doc=4797,freq=2.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34551817 = fieldWeight in 4797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=4797)
      0.33333334 = coord(2/6)
    
    Abstract
    Bericht über verschiedene Relevanzverfahren der Suchdienste des Internet
    Language
    e
  17. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.01
    0.013370307 = product of:
      0.04011092 = sum of:
        0.0038740598 = weight(_text_:e in 865) [ClassicSimilarity], result of:
          0.0038740598 = score(doc=865,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.063523374 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.03623686 = weight(_text_:der in 865) [ClassicSimilarity], result of:
          0.03623686 = score(doc=865,freq=30.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.3823389 = fieldWeight in 865, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanAckermann.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  18. Weller, K.; Stock, W.G.: Transitive meronymy : automatic concept-based query expansion using weighted transitive part-whole relations (2008) 0.01
    0.013175571 = product of:
      0.039526712 = sum of:
        0.0067796046 = weight(_text_:e in 1835) [ClassicSimilarity], result of:
          0.0067796046 = score(doc=1835,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.1111659 = fieldWeight in 1835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1835)
        0.03274711 = weight(_text_:der in 1835) [ClassicSimilarity], result of:
          0.03274711 = score(doc=1835,freq=8.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34551817 = fieldWeight in 1835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1835)
      0.33333334 = coord(2/6)
    
    Abstract
    Transitive Meronymie. Automatische begriffsbasierte Suchanfrageerweiterung unter Nutzung gewichteter transitiver Teil-Ganzes-Relationen. Unsere theoretisch orientierte Arbeit isoliert transitive Teil-Ganzes-Beziehungen. Wir diskutieren den Einsatz der Meronymie bei der automatischen begriffsbasierten Suchanfrageerweiterung im Information Retrieval. Aus praktischen Gründen schlagen wir vor, die Bestandsrelationen zu spezifizieren und die einzelnen Arten mit unterschiedlichen Gewichtungswerten zu versehen, die im Retrieval genutzt werden. Für das Design von Wissensordnungen ist bedeutsam, dass innerhalb der Begriffsleiter einer Abstraktionsrelation ein Begriff alle seine Teile (sowie alle transitiven Teile der Teile) an seine Unterbegriffe vererbt.
    Language
    e
  19. Lanvent, A.: Licht im Daten Chaos (2004) 0.01
    0.012629993 = product of:
      0.03788998 = sum of:
        0.005478748 = weight(_text_:e in 2806) [ClassicSimilarity], result of:
          0.005478748 = score(doc=2806,freq=4.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.08983562 = fieldWeight in 2806, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
        0.032411233 = weight(_text_:der in 2806) [ClassicSimilarity], result of:
          0.032411233 = score(doc=2806,freq=24.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34197432 = fieldWeight in 2806, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
      0.33333334 = coord(2/6)
    
    Abstract
    Spätestens bei der Suche nach E-Mails, PDF-Dokumenten oder Bildern mit Texten kapituliert die Windows-Suche. Vier von neun Desktop-Suchtools finden dagegen beinahe jede verborgene Datei.
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
  20. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.01
    0.011672202 = product of:
      0.035016604 = sum of:
        0.0019370299 = weight(_text_:e in 5973) [ClassicSimilarity], result of:
          0.0019370299 = score(doc=5973,freq=2.0), product of:
            0.060986366 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.042429138 = queryNorm
            0.031761687 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.033079572 = weight(_text_:der in 5973) [ClassicSimilarity], result of:
          0.033079572 = score(doc=5973,freq=100.0), product of:
            0.0947768 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.042429138 = queryNorm
            0.34902605 = fieldWeight in 5973, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.33333334 = coord(2/6)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."

Years

Languages

  • e 323
  • d 36
  • m 1
  • More… Less…

Types

  • a 329
  • m 12
  • x 7
  • el 6
  • s 5
  • r 4
  • p 2
  • d 1
  • More… Less…