Search (66 results, page 1 of 4)

  • × theme_ss:"Retrievalalgorithmen"
  1. Fan, W.; Fox, E.A.; Pathak, P.; Wu, H.: ¬The effects of fitness functions an genetic programming-based ranking discovery for Web search (2004) 0.01
    0.00776929 = product of:
      0.09711613 = sum of:
        0.08955013 = weight(_text_:gas in 2239) [ClassicSimilarity], result of:
          0.08955013 = score(doc=2239,freq=2.0), product of:
            0.15857321 = queryWeight, product of:
              8.518833 = idf(docFreq=23, maxDocs=44218)
              0.018614428 = queryNorm
            0.5647242 = fieldWeight in 2239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.518833 = idf(docFreq=23, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.007565994 = product of:
          0.015131988 = sum of:
            0.015131988 = weight(_text_:22 in 2239) [ClassicSimilarity], result of:
              0.015131988 = score(doc=2239,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23214069 = fieldWeight in 2239, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2239)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Genetic-based evolutionary learning algorithms, such as genetic algorithms (GAs) and genetic programming (GP), have been applied to information retrieval (IR) since the 1980s. Recently, GP has been applied to a new IR taskdiscovery of ranking functions for Web search-and has achieved very promising results. However, in our prior research, only one fitness function has been used for GP-based learning. It is unclear how other fitness functions may affect ranking function discovery for Web search, especially since it is weIl known that choosing a proper fitness function is very important for the effectiveness and efficiency of evolutionary algorithms. In this article, we report our experience in contrasting different fitness function designs an GP-based learning using a very large Web corpus. Our results indicate that the design of fitness functions is instrumental in performance improvement. We also give recommendations an the design of fitness functions for genetic-based information retrieval experiments.
    Date
    31. 5.2004 19:22:06
  2. Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking (2002) 0.01
    0.0062282854 = product of:
      0.15570714 = sum of:
        0.15570714 = weight(_text_:handwerk in 1083) [ClassicSimilarity], result of:
          0.15570714 = score(doc=1083,freq=2.0), product of:
            0.16196702 = queryWeight, product of:
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.018614428 = queryNorm
            0.96135086 = fieldWeight in 1083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.701155 = idf(docFreq=19, maxDocs=44218)
              0.078125 = fieldNorm(doc=1083)
      0.04 = coord(1/25)
    
    Abstract
    Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
  3. Ravana, S.D.; Rajagopal, P.; Balakrishnan, V.: Ranking retrieval systems using pseudo relevance judgments (2015) 0.01
    0.005130245 = product of:
      0.06412806 = sum of:
        0.055211455 = weight(_text_:700 in 2591) [ClassicSimilarity], result of:
          0.055211455 = score(doc=2591,freq=2.0), product of:
            0.1363961 = queryWeight, product of:
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.018614428 = queryNorm
            0.40478766 = fieldWeight in 2591, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3274393 = idf(docFreq=78, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2591)
        0.00891661 = product of:
          0.01783322 = sum of:
            0.01783322 = weight(_text_:22 in 2591) [ClassicSimilarity], result of:
              0.01783322 = score(doc=2591,freq=4.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.27358043 = fieldWeight in 2591, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2591)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Date
    20. 1.2015 18:30:22
    18. 9.2018 18:22:56
    Source
    Aslib journal of information management. 67(2015) no.6, S.700-714
  4. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0045910506 = product of:
      0.05738813 = sum of:
        0.049753457 = weight(_text_:wirtschaftswissenschaften in 4292) [ClassicSimilarity], result of:
          0.049753457 = score(doc=4292,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.4209349 = fieldWeight in 4292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.046875 = fieldNorm(doc=4292)
        0.0076346733 = product of:
          0.015269347 = sum of:
            0.015269347 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.015269347 = score(doc=4292,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
  5. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.00
    0.0037526407 = product of:
      0.09381602 = sum of:
        0.09381602 = weight(_text_:wirtschaftswissenschaften in 5392) [ClassicSimilarity], result of:
          0.09381602 = score(doc=5392,freq=4.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.79372245 = fieldWeight in 5392, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0625 = fieldNorm(doc=5392)
      0.04 = coord(1/25)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
    Field
    Wirtschaftswissenschaften
  6. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.00
    0.0031914292 = product of:
      0.039892867 = sum of:
        0.029713305 = product of:
          0.05942661 = sum of:
            0.05942661 = weight(_text_:dienstleistungen in 775) [ClassicSimilarity], result of:
              0.05942661 = score(doc=775,freq=2.0), product of:
                0.11187108 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5312062 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.5 = coord(1/2)
        0.010179564 = product of:
          0.020359129 = sum of:
            0.020359129 = weight(_text_:29 in 775) [ClassicSimilarity], result of:
              0.020359129 = score(doc=775,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.31092256 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Date
    29. 6.2013 18:06:23
  7. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.00
    0.0026870403 = product of:
      0.033588003 = sum of:
        0.028498221 = weight(_text_:einzelne in 862) [ClassicSimilarity], result of:
          0.028498221 = score(doc=862,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.26011568 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.005089782 = product of:
          0.010179564 = sum of:
            0.010179564 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.010179564 = score(doc=862,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.5 = coord(1/2)
      0.08 = coord(2/25)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Date
    13. 2.2007 20:56:29
  8. Abdelkareem, M.A.A.: In terms of publication index, what indicator is the best for researchers indexing, Google Scholar, Scopus, Clarivate or others? (2018) 0.00
    0.0019425282 = product of:
      0.048563205 = sum of:
        0.048563205 = weight(_text_:post in 4548) [ClassicSimilarity], result of:
          0.048563205 = score(doc=4548,freq=2.0), product of:
            0.10811277 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.018614428 = queryNorm
            0.4491903 = fieldWeight in 4548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4548)
      0.04 = coord(1/25)
    
    Source
    https://www.researchgate.net/post/In_terms_of_publication_index_what_indicator_is_the_best_for_researchers_indexing_Google_Scholar_Scopus_Clarivate_or_others
  9. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.00
    0.0013267589 = product of:
      0.03316897 = sum of:
        0.03316897 = weight(_text_:wirtschaftswissenschaften in 4302) [ClassicSimilarity], result of:
          0.03316897 = score(doc=4302,freq=2.0), product of:
            0.118197516 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.018614428 = queryNorm
            0.28062326 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.04 = coord(1/25)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  10. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    8.070393E-4 = product of:
      0.020175984 = sum of:
        0.020175984 = product of:
          0.04035197 = sum of:
            0.04035197 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.04035197 = score(doc=402,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  11. Archuby, C.G.: Interfaces se recuperacion para catalogos en linea con salidas ordenadas por probable relevancia (2000) 0.00
    7.1980385E-4 = product of:
      0.017995097 = sum of:
        0.017995097 = product of:
          0.035990193 = sum of:
            0.035990193 = weight(_text_:29 in 5727) [ClassicSimilarity], result of:
              0.035990193 = score(doc=5727,freq=4.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5496386 = fieldWeight in 5727, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5727)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    29. 1.1996 18:23:13
    Source
    Ciencia da informacao. 29(2000) no.3, S.5-13
  12. Crestani, F.: Combination of similarity measures for effective spoken document retrieval (2003) 0.00
    7.125695E-4 = product of:
      0.017814238 = sum of:
        0.017814238 = product of:
          0.035628475 = sum of:
            0.035628475 = weight(_text_:29 in 4690) [ClassicSimilarity], result of:
              0.035628475 = score(doc=4690,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5441145 = fieldWeight in 4690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4690)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Source
    Journal of information science. 29(2003) no.2, S.87-96
  13. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.00
    7.0615945E-4 = product of:
      0.017653987 = sum of:
        0.017653987 = product of:
          0.035307974 = sum of:
            0.035307974 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.035307974 = score(doc=2134,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    30. 3.2001 13:32:22
  14. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    7.0615945E-4 = product of:
      0.017653987 = sum of:
        0.017653987 = product of:
          0.035307974 = sum of:
            0.035307974 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.035307974 = score(doc=3445,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    25. 8.2005 17:42:22
  15. Okada, M.; Ando, K.; Lee, S.S.; Hayashi, Y.; Aoe, J.I.: ¬An efficient substring search method by using delayed keyword extraction (2001) 0.00
    6.1077386E-4 = product of:
      0.015269347 = sum of:
        0.015269347 = product of:
          0.030538693 = sum of:
            0.030538693 = weight(_text_:29 in 6415) [ClassicSimilarity], result of:
              0.030538693 = score(doc=6415,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46638384 = fieldWeight in 6415, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6415)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    29. 3.2002 17:24:03
  16. Cole, C.: Intelligent information retrieval: diagnosing information need : Part II: uncertainty expansion in a prototype of a diagnostic IR tool (1998) 0.00
    6.1077386E-4 = product of:
      0.015269347 = sum of:
        0.015269347 = product of:
          0.030538693 = sum of:
            0.030538693 = weight(_text_:29 in 6432) [ClassicSimilarity], result of:
              0.030538693 = score(doc=6432,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46638384 = fieldWeight in 6432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6432)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    11. 8.2001 14:48:29
  17. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    6.0527946E-4 = product of:
      0.015131988 = sum of:
        0.015131988 = product of:
          0.030263975 = sum of:
            0.030263975 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.030263975 = score(doc=58,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    14. 6.2015 22:12:44
  18. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    6.0527946E-4 = product of:
      0.015131988 = sum of:
        0.015131988 = product of:
          0.030263975 = sum of:
            0.030263975 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.030263975 = score(doc=2051,freq=2.0), product of:
                0.065184556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018614428 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    14. 6.2015 22:12:56
  19. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.00
    5.699644E-4 = product of:
      0.014249111 = sum of:
        0.014249111 = weight(_text_:einzelne in 5973) [ClassicSimilarity], result of:
          0.014249111 = score(doc=5973,freq=2.0), product of:
            0.1095598 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.018614428 = queryNorm
            0.13005784 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.04 = coord(1/25)
    
    Footnote
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
  20. Zhang, W.; Korf, R.E.: Performance of linear-space search algorithms (1995) 0.00
    5.0897826E-4 = product of:
      0.012724456 = sum of:
        0.012724456 = product of:
          0.025448913 = sum of:
            0.025448913 = weight(_text_:29 in 4744) [ClassicSimilarity], result of:
              0.025448913 = score(doc=4744,freq=2.0), product of:
                0.06547974 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.018614428 = queryNorm
                0.38865322 = fieldWeight in 4744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4744)
          0.5 = coord(1/2)
      0.04 = coord(1/25)
    
    Date
    2. 8.1996 10:29:15

Years

Languages

  • e 50
  • d 14
  • m 1
  • pt 1
  • More… Less…

Types

  • a 60
  • el 2
  • m 2
  • x 2
  • r 1
  • s 1
  • More… Less…