Search (135 results, page 1 of 7)

  • × theme_ss:"Retrievalalgorithmen"
  1. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.03
    0.026643785 = product of:
      0.12655798 = sum of:
        0.031216504 = weight(_text_:medizin in 4292) [ClassicSimilarity], result of:
          0.031216504 = score(doc=4292,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.031216504 = weight(_text_:medizin in 4292) [ClassicSimilarity], result of:
          0.031216504 = score(doc=4292,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.013202622 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4292,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.013202622 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4292,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.013577371 = score(doc=4292,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4292,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.013202622 = weight(_text_:und in 4292) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4292,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.013577371 = score(doc=4292,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.21052632 = coord(8/38)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.1, S.3-10
  2. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.02
    0.017709764 = product of:
      0.096138716 = sum of:
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 4302) [ClassicSimilarity], result of:
              0.005386828 = score(doc=4302,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.18421052 = coord(7/38)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Date
    4. 4.2009 9:17:47
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  3. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.02
    0.015738245 = product of:
      0.11961065 = sum of:
        0.010779895 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.010779895 = score(doc=2051,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.010779895 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.010779895 = score(doc=2051,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.010779895 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.010779895 = score(doc=2051,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.010779895 = weight(_text_:und in 2051) [ClassicSimilarity], result of:
          0.010779895 = score(doc=2051,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.07649107 = product of:
          0.1147366 = sum of:
            0.08782613 = weight(_text_:datenverarbeitung in 2051) [ClassicSimilarity], result of:
              0.08782613 = score(doc=2051,freq=2.0), product of:
                0.10471074 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.016551789 = queryNorm
                0.83875 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
            0.026910467 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.026910467 = score(doc=2051,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.6666667 = coord(2/3)
      0.13157895 = coord(5/38)
    
    Date
    14. 6.2015 22:12:56
    Series
    Linguistische Datenverarbeitung; Bd.5
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  4. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.02
    0.0155916 = product of:
      0.0740601 = sum of:
        0.020811005 = weight(_text_:medizin in 862) [ClassicSimilarity], result of:
          0.020811005 = score(doc=862,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.020811005 = weight(_text_:medizin in 862) [ClassicSimilarity], result of:
          0.020811005 = score(doc=862,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0045257905 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.009051581 = score(doc=862,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.5 = coord(1/2)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0030171936 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.009051581 = score(doc=862,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.21052632 = coord(8/38)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
    Date
    13. 2.2007 20:56:29
  5. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.01
    0.014569221 = product of:
      0.11072607 = sum of:
        0.042548027 = product of:
          0.085096054 = sum of:
            0.085096054 = weight(_text_:morphologie in 2774) [ClassicSimilarity], result of:
              0.085096054 = score(doc=2774,freq=2.0), product of:
                0.14576359 = queryWeight, product of:
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.016551789 = queryNorm
                0.583795 = fieldWeight in 2774, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2774)
          0.5 = coord(1/2)
        0.01704451 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.01704451 = score(doc=2774,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.01704451 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.01704451 = score(doc=2774,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.01704451 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.01704451 = score(doc=2774,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
        0.01704451 = weight(_text_:und in 2774) [ClassicSimilarity], result of:
          0.01704451 = score(doc=2774,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 2774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2774)
      0.13157895 = coord(5/38)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
  6. Oberhauser, O.; Labner, J.: Relevance Ranking in Online-Katalogen : Informationsstand und Perspektiven (2003) 0.01
    0.013931263 = product of:
      0.07562686 = sum of:
        0.00889296 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.00889296 = score(doc=2188,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24241515 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2188)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 2188) [ClassicSimilarity], result of:
              0.035341542 = score(doc=2188,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 2188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
        0.00889296 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.00889296 = score(doc=2188,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24241515 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2188)
        0.0047134743 = product of:
          0.009426949 = sum of:
            0.009426949 = weight(_text_:4 in 2188) [ClassicSimilarity], result of:
              0.009426949 = score(doc=2188,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2098769 = fieldWeight in 2188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
        0.00889296 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.00889296 = score(doc=2188,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24241515 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2188)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 2188) [ClassicSimilarity], result of:
              0.035341542 = score(doc=2188,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 2188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
        0.00889296 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.00889296 = score(doc=2188,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24241515 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2188)
      0.18421052 = coord(7/38)
    
    Abstract
    Bekanntlich führen Suchmaschinen wie Google &Co. beider Auflistung der Suchergebnisse ein "Ranking" nach "Relevanz" durch, d.h. die Dokumente werden in absteigender Reihenfolge entsprechend ihrer Erfüllung von Relevanzkriterien ausgeben. In Online-Katalogen (OPACs) ist derlei noch nicht allgemein übliche Praxis, doch bietet etwa das im Österreichischen Bibliothekenverbund eingesetzte System Aleph 500 tatsächlich eine solche Ranking-Option an (die im Verbundkatalog auch implementiert ist). Bislang liegen allerdings kaum Informationen zur Funktionsweise dieses Features, insbesondere auch im Hinblick auf eine Hilfestellung für Benutzer, vor. Daher möchten wir mit diesem Beitrag versuchen, den in unserem Verbund bestehenden Informationsstand zum Thema "Relevance Ranking" zu erweitern. Sowohl die Verwendung einer Ranking-Option in OPACs generell als auch die sich unter Aleph 500 konkret bietenden Möglichkeiten sollen im folgenden näher betrachtet werden.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.3/4, S.49-63
  7. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.01
    0.013121562 = product of:
      0.08310323 = sum of:
        0.013202622 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4301,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 4301) [ClassicSimilarity], result of:
              0.030292748 = score(doc=4301,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 4301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4301)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4301,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
        0.013202622 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4301,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 4301) [ClassicSimilarity], result of:
              0.030292748 = score(doc=4301,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 4301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4301)
          0.5 = coord(1/2)
        0.013202622 = weight(_text_:und in 4301) [ClassicSimilarity], result of:
          0.013202622 = score(doc=4301,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.35989314 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.15789473 = coord(6/38)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
    Theme
    Katalogfragen allgemein
  8. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.01
    0.01159142 = product of:
      0.07341233 = sum of:
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 5744) [ClassicSimilarity], result of:
              0.030292748 = score(doc=5744,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 5744) [ClassicSimilarity], result of:
              0.030292748 = score(doc=5744,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
        0.010779895 = weight(_text_:und in 5744) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5744,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.15789473 = coord(6/38)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Theme
    Katalogfragen allgemein
  9. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (1999) 0.01
    0.01157851 = product of:
      0.07333057 = sum of:
        0.007622537 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.007622537 = score(doc=5777,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.021420209 = product of:
          0.042840417 = sum of:
            0.042840417 = weight(_text_:allgemein in 5777) [ClassicSimilarity], result of:
              0.042840417 = score(doc=5777,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.49259502 = fieldWeight in 5777, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5777)
          0.5 = coord(1/2)
        0.007622537 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.007622537 = score(doc=5777,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.007622537 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.007622537 = score(doc=5777,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.021420209 = product of:
          0.042840417 = sum of:
            0.042840417 = weight(_text_:allgemein in 5777) [ClassicSimilarity], result of:
              0.042840417 = score(doc=5777,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.49259502 = fieldWeight in 5777, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5777)
          0.5 = coord(1/2)
        0.007622537 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.007622537 = score(doc=5777,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
      0.15789473 = coord(6/38)
    
    Classification
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
    RVK
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
  10. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.01
    0.009973791 = product of:
      0.075800814 = sum of:
        0.017603496 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.017603496 = score(doc=1734,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.017603496 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.017603496 = score(doc=1734,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.005386828 = product of:
          0.010773656 = sum of:
            0.010773656 = weight(_text_:4 in 1734) [ClassicSimilarity], result of:
              0.010773656 = score(doc=1734,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23985931 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1734)
          0.5 = coord(1/2)
        0.017603496 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.017603496 = score(doc=1734,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
        0.017603496 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.017603496 = score(doc=1734,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 1734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1734)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  11. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.009244603 = product of:
      0.07025898 = sum of:
        0.01606972 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.01606972 = score(doc=1484,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.01606972 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.01606972 = score(doc=1484,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.01606972 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.01606972 = score(doc=1484,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.01606972 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.01606972 = score(doc=1484,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.0059801037 = product of:
          0.01794031 = sum of:
            0.01794031 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.01794031 = score(doc=1484,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  12. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.01
    0.008651122 = product of:
      0.054790445 = sum of:
        0.008983246 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.008983246 = score(doc=5151,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.008983246 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.008983246 = score(doc=5151,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.011314476 = product of:
          0.022628952 = sum of:
            0.022628952 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.022628952 = score(doc=5151,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.5 = coord(1/2)
        0.008983246 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.008983246 = score(doc=5151,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.008983246 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
          0.008983246 = score(doc=5151,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 5151, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5151)
        0.007542984 = product of:
          0.022628952 = sum of:
            0.022628952 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.022628952 = score(doc=5151,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Date
    25. 8.2000 19:55:29
    Source
    Knowledge Management und Kommunikationssysteme: Proceedings des 6. Internationalen Symposiums für Informationswissenschaft (ISI '98) Prag, 3.-7. November 1998 / Hochschulverband für Informationswissenschaft (HI) e.V. Konstanz ; Fachrichtung Informationswissenschaft der Universität des Saarlandes, Saarbrücken. Hrsg.: Harald H. Zimmermann u. Volker Schramm
  13. Fuhr, N.: Modelle im Information Retrieval (2023) 0.01
    0.007832057 = product of:
      0.04960303 = sum of:
        0.0100435745 = weight(_text_:und in 800) [ClassicSimilarity], result of:
          0.0100435745 = score(doc=800,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27378 = fieldWeight in 800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.0100435745 = weight(_text_:und in 800) [ClassicSimilarity], result of:
          0.0100435745 = score(doc=800,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27378 = fieldWeight in 800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.005657238 = product of:
          0.011314476 = sum of:
            0.011314476 = weight(_text_:29 in 800) [ClassicSimilarity], result of:
              0.011314476 = score(doc=800,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=800)
          0.5 = coord(1/2)
        0.0100435745 = weight(_text_:und in 800) [ClassicSimilarity], result of:
          0.0100435745 = score(doc=800,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27378 = fieldWeight in 800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.0100435745 = weight(_text_:und in 800) [ClassicSimilarity], result of:
          0.0100435745 = score(doc=800,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27378 = fieldWeight in 800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.003771492 = product of:
          0.011314476 = sum of:
            0.011314476 = weight(_text_:29 in 800) [ClassicSimilarity], result of:
              0.011314476 = score(doc=800,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.19432661 = fieldWeight in 800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=800)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Date
    24.11.2022 17:20:29
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  14. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.01
    0.007727613 = product of:
      0.048941553 = sum of:
        0.007186597 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.007186597 = score(doc=865,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 865) [ClassicSimilarity], result of:
              0.020195166 = score(doc=865,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
        0.007186597 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.007186597 = score(doc=865,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.007186597 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.007186597 = score(doc=865,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
        0.010097583 = product of:
          0.020195166 = sum of:
            0.020195166 = weight(_text_:allgemein in 865) [ClassicSimilarity], result of:
              0.020195166 = score(doc=865,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23221152 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
        0.007186597 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.007186597 = score(doc=865,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 865, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=865)
      0.15789473 = coord(6/38)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanAckermann.pdf
  15. Lanvent, A.: Praxis - Windows-Suche und Indexdienst : Auch Windows kann bei der Suche den Turbo einlegen: mit dem Indexdienst (2004) 0.01
    0.007535032 = product of:
      0.057266243 = sum of:
        0.013474869 = weight(_text_:und in 3316) [ClassicSimilarity], result of:
          0.013474869 = score(doc=3316,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 3316, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
        0.013474869 = weight(_text_:und in 3316) [ClassicSimilarity], result of:
          0.013474869 = score(doc=3316,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 3316, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
        0.0033667674 = product of:
          0.006733535 = sum of:
            0.006733535 = weight(_text_:4 in 3316) [ClassicSimilarity], result of:
              0.006733535 = score(doc=3316,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14991207 = fieldWeight in 3316, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3316)
          0.5 = coord(1/2)
        0.013474869 = weight(_text_:und in 3316) [ClassicSimilarity], result of:
          0.013474869 = score(doc=3316,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 3316, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
        0.013474869 = weight(_text_:und in 3316) [ClassicSimilarity], result of:
          0.013474869 = score(doc=3316,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3673144 = fieldWeight in 3316, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3316)
      0.13157895 = coord(5/38)
    
    Content
    "Für eine 4-GByte-Festplatte mit mehreren Partitionen sucht Windows XP im Volltextmodus weit über zwei Stunden. Der Indexdienst verkürzt diese Recherchedauer drastisch um mehr als eine Stunde. Im Gegensatz zu den Indizes der kommerziellen Suchwerkzeuge erfasst der Windows-Indexdienst nur Text-, HTML- und OfficeDateien über entsprechend integrierte Dokumentfilter. Da er weder ZIP-Files noch PDFs erkennt und auch keine E-Mails scannt, ist er mit komplexen Anfragen schnell überfordert. Standardmäßig ist der Indexdienst zwar installiert, aber nicht aktiviert. Das erledigt der Anwender über Start/Arbeitsplatz und den Befehl Verwalten aus dem Kontextmenü. In der Computerverwaltung aktiviert der Benutzer den Eintrag Indexdienst und wählt Starten aus dem Kontextmenü. Die zu indizierenden Elemente verwaltet Windows über so genannte Kataloge, mit deren Hilfe der User bestimmt, welche Dateitypen aus welchen Ordnern indiziert werden sollen. Zwar kann der Anwender neben dem Katalog System weitere Kataloge einrichten. Ausreichend ist es aber in den meisten Fällen, dem Katalog System weitere Indizierungsordner über die Befehle Neu/Verzeichnis hinzuzufügen. Klickt der Benutzer dann einen der Indizierungsordner mit der rechten Maustaste an und wählt Alle Tasks/Erneut prüfen (Vollständig), beginnt der mitunter langwierige Indizierungsprozess. Über den Eigenschaften-Dialog lässt sich allerdings der Leistungsverbrauch drosseln. Eine inkrementelle Indizierung, bei der Windows nur neue Elemente im jeweiligen Verzeichnis unter die Lupe nimmt, erreicht der Nutzer über Alle Tasks/Erneut prüfen (inkrementell). Einschalten lässt sich der Indexdienst auch über die Eigenschaften eines Ordners und den Befehl Erweitert/ln-halt für schnelle Dateisuche indizieren. Auskunft über die dem Indexdienst zugeordneten Ordner und Laufwerke erhalten Sie, wenn Sie die WindowsSuche starten und Weitere Optionen/ Andere Suchoptionen/Bevorzugte Einstellungen ändern/Indexdienst verwenden anklicken."
  16. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.01
    0.007501823 = product of:
      0.05701385 = sum of:
        0.013916786 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.013916786 = score(doc=5973,freq=120.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.013916786 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.013916786 = score(doc=5973,freq=120.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.001346707 = product of:
          0.002693414 = sum of:
            0.002693414 = weight(_text_:4 in 5973) [ClassicSimilarity], result of:
              0.002693414 = score(doc=5973,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.05996483 = fieldWeight in 5973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5973)
          0.5 = coord(1/2)
        0.013916786 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.013916786 = score(doc=5973,freq=120.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.013916786 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.013916786 = score(doc=5973,freq=120.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.13157895 = coord(5/38)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
    Isbn
    3-89669-561-4
  17. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.01
    0.006920898 = product of:
      0.043832354 = sum of:
        0.007186597 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.007186597 = score(doc=3,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.007186597 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.007186597 = score(doc=3,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.009051581 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.018103162 = score(doc=3,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.5 = coord(1/2)
        0.007186597 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.007186597 = score(doc=3,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.007186597 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.007186597 = score(doc=3,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.018103162 = score(doc=3,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
    Date
    31.12.1996 19:29:41
  18. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.01
    0.006920898 = product of:
      0.043832354 = sum of:
        0.007186597 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.007186597 = score(doc=775,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.007186597 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.007186597 = score(doc=775,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.009051581 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 775) [ClassicSimilarity], result of:
              0.018103162 = score(doc=775,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.5 = coord(1/2)
        0.007186597 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.007186597 = score(doc=775,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.007186597 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.007186597 = score(doc=775,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.19590102 = fieldWeight in 775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=775)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 775) [ClassicSimilarity], result of:
              0.018103162 = score(doc=775,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Relevanz-Ranking im Katalog der Universitätsbibliothek Heidelberg HEIDI, bereits 2009 in einem Beitrag in dieser Zeitschrift beschrieben, wurde in den letzten Jahren durch neue Entwicklungen und Methoden stark verbessert. Der Aufsatz beschreibt die Realisierung der bisherigen Rankingmaßnahmen unter der neu eingesetzten Suchmaschinenplattform SOLR. Weiter werden verschiedene neue Möglichkeiten für Rankinganpassungen unter SOLR sowie deren Einsatz im HEIDI-Katalog dargestellt.
    Date
    29. 6.2013 18:06:23
  19. Wilhelmy, A.: Phonetische Ähnlichkeitssuche in Datenbanken (1991) 0.01
    0.006874906 = product of:
      0.052249283 = sum of:
        0.01205229 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.01205229 = score(doc=5684,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 5684, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.01205229 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.01205229 = score(doc=5684,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 5684, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 5684) [ClassicSimilarity], result of:
              0.008080241 = score(doc=5684,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.5 = coord(1/2)
        0.01205229 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.01205229 = score(doc=5684,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 5684, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.01205229 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.01205229 = score(doc=5684,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 5684, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
      0.13157895 = coord(5/38)
    
    Abstract
    In dialoggesteuerten Systemen zur Informationswiedergewinnung (Information Retrieval Systems, IRS) kann man - vergröbernd - das Wechselspiel zwischen Mensch und Computer als iterativen Prozess zur Erhöhung von Genauigkeit (Precision) auf der einen und Vollständigkeit (Recall) der Nachweise auf der anderen Seite verstehen. Vorgestellt wird ein maschinell anwendbares Verfahren, das auf phonologische Untersuchungen des Sprachwissenschaftlers Nikolaj S. Trubetzkoy (1890-1938) zurückgeht. In den Grundzügen kann es erheblich zur Verbesserung der Nachweisvollständigkeit beitragen. Dadurch, daß es die 'Ähnlichkeitsumgebungen' von Suchbegriffen in die Recherche mit einbezieht, zeigt es sich vor allem für Systeme mit koordinativer maschineller Indexierung als vorteilhaft. Bei alphabetischen Begriffen erweist sich die Einführung eines solchen zunächst nur auf den Benutzer hin orientierten Verfahrens auch aus technischer Sicht als günstig, da damit die Anzahl der Zugriffe bei den Suchvorgängen auch für große Datenvolumina niedrig gehalten werden kann
    Source
    Bibliotheken mit und ohne Grenzen: Informationsgesellschaft und Bibliothek. Der österreichische Bibliothekartag 1990, Bregenz, 4.-8.9.1990, Vorträge und Kommissionssitzungen
  20. Fuhr, N.: Zur Überwindung der Diskrepanz zwischen Retrievalforschung und -praxis (1990) 0.01
    0.0067661977 = product of:
      0.06427888 = sum of:
        0.01606972 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.01606972 = score(doc=6625,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.01606972 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.01606972 = score(doc=6625,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.01606972 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.01606972 = score(doc=6625,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
        0.01606972 = weight(_text_:und in 6625) [ClassicSimilarity], result of:
          0.01606972 = score(doc=6625,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 6625, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6625)
      0.10526316 = coord(4/38)
    
    Abstract
    In diesem Beitrag werden einige Forschungsergebnisse des Information Retrieval vorgestellt, die unmittelbar zur Verbesserung der Retrievalqualität für bereits existierende Datenbanken eingesetzt werden können: Linguistische Algorithmen zur Grund- und Stammformreduktion unterstützen die Suche nach Flexions- und Derivationsformen von Suchtermen. Rankingalgorithmen, die Frage- und Dokumentterme gewichten, führen zu signifikant besseren Retrievalergebnissen als beim Booleschen Retrieval. Durch Relevance Feedback können die Retrievalqualität weiter gesteigert und außerdem der Benutzer bei der sukzessiven Modifikation seiner Frageformulierung unterstützt werden. Es wird eine benutzerfreundliche Bedienungsoberfläche für ein System vorgestellt, das auf diesen Konzepten basiert.

Years

Languages

  • e 95
  • d 38
  • m 1
  • pt 1
  • More… Less…

Types

  • a 117
  • m 9
  • x 7
  • r 2
  • s 2
  • el 1
  • More… Less…