Search (13 results, page 1 of 1)

  • × theme_ss:"Retrievalalgorithmen"
  • × language_ss:"d"
  1. Mutschke, P.: Autorennetzwerke : Verfahren zur Netzwerkanalyse als Mehrwertdienste für Informationssysteme (2004) 0.01
    0.007813022 = product of:
      0.046878126 = sum of:
        0.046878126 = weight(_text_:wissen in 4050) [ClassicSimilarity], result of:
          0.046878126 = score(doc=4050,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.28590742 = fieldWeight in 4050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.046875 = fieldNorm(doc=4050)
      0.16666667 = coord(1/6)
    
    Abstract
    Virtuelle Bibliotheken enthalten eine Fülle an Informationen, die in ihrer Vielfalt und Tiefe von Standardsuchmaschinen nicht erschöpfend erfasst wird. Der Arbeitsbericht informiert über Entwicklungen am IZ, die darauf abzielen, Wissen über das Interaktionsgeschehen in wissenschaftlichen Communities und den sozialen Status ihrer Akteure für das Retrieval auszunutzen. Grundlage hierfür sind soziale Netzwerke, die sich durch Kooperation der wissenschaftlichen Akteure konstituieren und in den Dokumenten der Datenbasis z.B. als Koautorbeziehungen repräsentiert sind (Autorennetzwerke). Die in dem Bericht beschriebenen Studien zur Small-World-Topologie von Autorennetzwerken zeigen, dass diese Netzwerke ein erhebliches Potential für Informationssysteme haben. Der Bericht diskutiert Szenarios, die beschreiben, wie Autorennetzwerke und hier insbesondere das Konzept der Akteurszentralität für die Informationssuche in Datenbanken sinnvoll genutzt werden können. Kernansatz dieser Retrievalmodelle ist die Suche nach Experten und das Ranking von Dokumenten auf der Basis der Zentralität von Autoren in Autorennetzwerken.
  2. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.061809026 = score(doc=58,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    14. 6.2015 22:12:44
  3. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.0034338348 = product of:
      0.020603009 = sum of:
        0.020603009 = product of:
          0.061809026 = sum of:
            0.061809026 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.061809026 = score(doc=2051,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    14. 6.2015 22:12:56
  4. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.00
    0.0028875046 = product of:
      0.017325027 = sum of:
        0.017325027 = product of:
          0.05197508 = sum of:
            0.05197508 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.05197508 = score(doc=5151,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    25. 8.2000 19:55:29
  5. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.00
    0.0026043402 = product of:
      0.015626041 = sum of:
        0.015626041 = weight(_text_:wissen in 5965) [ClassicSimilarity], result of:
          0.015626041 = score(doc=5965,freq=2.0), product of:
            0.1639626 = queryWeight, product of:
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.038016807 = queryNorm
            0.09530247 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.3128977 = idf(docFreq=1609, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
      0.16666667 = coord(1/6)
    
    Footnote
    Im abschließenden Kapitel des Buchs berichtet der Autor über eine Reihe von Experimenten, die im Kontext unterschiedlicher Anwendungen durchgeführt wurden. Die Evaluationen wurden sehr sorgfältig durchgeführt und werden kompetent kommentiert, so dass der Leser sich ein Bild von der Komplexität der Untersuchungen machen kann. Inhaltlich sind die Ergebnisse unterschiedlich, die Verwendung des NN-Ansatzes ist sehr abhängig von der Menge und Qualität des Trainingsmaterials (so sind die Ergebnisse auf der Cranfield-Kollektion wegen der geringen Anzahl von zur Verfügung stehenden Relevanzurteilen schlechter als die der traditionellen Verfahren). Das Experiment mit Werkstoffinformationen im Projekt WING ist eine eher traditionelle NN-Applikation: Aus Merkmalsvektoren soll auf die "Anwendungsähnlichkeit" von Werkstoffen geschlossen werden, was offenbar gut gelingt. Hier sind die konkurrierenden Verfahren aber weniger im IR zu vermuten, sondern eher im Gebiet des Data Mining. Die Versuche mit Textdaten sind Anregung, hier weitere, systematischere Untersuchungen vorzunehmen. So sollte z.B. nicht nur ein Vergleich mit klassischen One-shot IR-Verfahren durchgeführt werden, viel interessanter und aussagekräftiger ist die Gegenüberstellung von NN-Systemen und lernfähigen IR-Systemen, die z.B. über Relevance Feedback Wissen akkumulieren (vergleichbar den NN in der Trainingsphase). Am Ende könnte dann nicht nur ein einheitliches Modell stehen, sondern auch Erkenntnisse darüber, welches Lernverfahren wann vorzuziehen ist. Fazit: Das Buch ist ein hervorragendes Beispiel der "Schriften zur Informationswissenschaft", mit denen der HI (Hochschulverband für Informationswissenschaft) die Ergebnisse der informationswissenschaftlichen Forschung seit etlichen Jahren einem größerem Publikum vorstellt. Es bietet einen umfassenden Überblick zum dynamisch sich entwickelnden Gebiet der Neuronalen Netze im IR, die sich anschicken, ein "tolerantes Information Retrieval" zu ermöglichen."
  6. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.00
    0.0023100036 = product of:
      0.013860021 = sum of:
        0.013860021 = product of:
          0.041580062 = sum of:
            0.041580062 = weight(_text_:29 in 3) [ClassicSimilarity], result of:
              0.041580062 = score(doc=3,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.31092256 = fieldWeight in 3, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    31.12.1996 19:29:41
  7. Maylein, L.; Langenstein, A.: Neues vom Relevanz-Ranking im HEIDI-Katalog der Universitätsbibliothek Heidelberg : Perspektiven für bibliothekarische Dienstleistungen (2013) 0.00
    0.0023100036 = product of:
      0.013860021 = sum of:
        0.013860021 = product of:
          0.041580062 = sum of:
            0.041580062 = weight(_text_:29 in 775) [ClassicSimilarity], result of:
              0.041580062 = score(doc=775,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.31092256 = fieldWeight in 775, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=775)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 6.2013 18:06:23
  8. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.00
    0.0022892233 = product of:
      0.013735339 = sum of:
        0.013735339 = product of:
          0.041206017 = sum of:
            0.041206017 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.041206017 = score(doc=1484,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    13. 9.2014 14:45:22
  9. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.00
    0.0020030704 = product of:
      0.012018423 = sum of:
        0.012018423 = product of:
          0.036055267 = sum of:
            0.036055267 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.036055267 = score(doc=3276,freq=2.0), product of:
                0.13312837 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038016807 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    20. 3.2005 16:23:22
  10. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.00
    0.0017325026 = product of:
      0.010395016 = sum of:
        0.010395016 = product of:
          0.031185046 = sum of:
            0.031185046 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.031185046 = score(doc=4292,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    9. 2.2011 17:47:29
  11. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.00
    0.0014437523 = product of:
      0.008662513 = sum of:
        0.008662513 = product of:
          0.02598754 = sum of:
            0.02598754 = weight(_text_:29 in 4) [ClassicSimilarity], result of:
              0.02598754 = score(doc=4,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19432661 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    31.12.1996 19:29:41
  12. Fuhr, N.: Modelle im Information Retrieval (2023) 0.00
    0.0014437523 = product of:
      0.008662513 = sum of:
        0.008662513 = product of:
          0.02598754 = sum of:
            0.02598754 = weight(_text_:29 in 800) [ClassicSimilarity], result of:
              0.02598754 = score(doc=800,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.19432661 = fieldWeight in 800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=800)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    24.11.2022 17:20:29
  13. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.00
    0.0011550018 = product of:
      0.0069300104 = sum of:
        0.0069300104 = product of:
          0.020790031 = sum of:
            0.020790031 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.020790031 = score(doc=862,freq=2.0), product of:
                0.13373125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038016807 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    13. 2.2007 20:56:29