Search (68 results, page 1 of 4)

  • × theme_ss:"Retrievalalgorithmen"
  1. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.01
    0.012349852 = product of:
      0.09879882 = sum of:
        0.09879882 = weight(_text_:informationskompetenz in 4968) [ClassicSimilarity], result of:
          0.09879882 = score(doc=4968,freq=2.0), product of:
            0.2063236 = queryWeight, product of:
              6.1915555 = idf(docFreq=245, maxDocs=44218)
              0.033323385 = queryNorm
            0.4788537 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1915555 = idf(docFreq=245, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4968)
      0.125 = coord(1/8)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
  2. Mayr, P.: Bradfordizing als Re-Ranking-Ansatz in Literaturinformationssystemen (2011) 0.01
    0.008014303 = product of:
      0.03205721 = sum of:
        0.022945525 = product of:
          0.0917821 = sum of:
            0.0917821 = weight(_text_:recherche in 4292) [ClassicSimilarity], result of:
              0.0917821 = score(doc=4292,freq=4.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.50814784 = fieldWeight in 4292, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.25 = coord(1/4)
        0.009111684 = product of:
          0.02733505 = sum of:
            0.02733505 = weight(_text_:29 in 4292) [ClassicSimilarity], result of:
              0.02733505 = score(doc=4292,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.23319192 = fieldWeight in 4292, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4292)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    In diesem Artikel wird ein Re-Ranking-Ansatz für Suchsysteme vorgestellt, der die Recherche nach wissenschaftlicher Literatur messbar verbessern kann. Das nichttextorientierte Rankingverfahren Bradfordizing wird eingeführt und anschließend im empirischen Teil des Artikels bzgl. der Effektivität für typische fachbezogene Recherche-Topics evaluiert. Dem Bradford Law of Scattering (BLS), auf dem Bradfordizing basiert, liegt zugrunde, dass sich die Literatur zu einem beliebigen Fachgebiet bzw. -thema in Zonen unterschiedlicher Dokumentenkonzentration verteilt. Dem Kernbereich mit hoher Konzentration der Literatur folgen Bereiche mit mittlerer und geringer Konzentration. Bradfordizing sortiert bzw. rankt eine Dokumentmenge damit nach den sogenannten Kernzeitschriften. Der Retrievaltest mit 164 intellektuell bewerteten Fragestellungen in Fachdatenbanken aus den Bereichen Sozial- und Politikwissenschaften, Wirtschaftswissenschaften, Psychologie und Medizin zeigt, dass die Dokumente der Kernzeitschriften signifikant häufiger relevant bewertet werden als Dokumente der zweiten Dokumentzone bzw. den Peripherie-Zeitschriften. Die Implementierung von Bradfordizing und weiteren Re-Rankingverfahren liefert unmittelbare Mehrwerte für den Nutzer.
    Date
    9. 2.2011 17:47:29
  3. Dominich, S.: Mathematical foundations of information retrieval (2001) 0.01
    0.006661509 = product of:
      0.026646037 = sum of:
        0.019121272 = product of:
          0.07648509 = sum of:
            0.07648509 = weight(_text_:recherche in 1753) [ClassicSimilarity], result of:
              0.07648509 = score(doc=1753,freq=4.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.42345655 = fieldWeight in 1753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1753)
          0.25 = coord(1/4)
        0.007524765 = product of:
          0.022574294 = sum of:
            0.022574294 = weight(_text_:22 in 1753) [ClassicSimilarity], result of:
              0.022574294 = score(doc=1753,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.19345059 = fieldWeight in 1753, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1753)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Date
    22. 3.2008 12:26:32
    RSWK
    Online-Recherche / Mathematische Methode
    Subject
    Online-Recherche / Mathematische Methode
  4. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.01
    0.005730241 = product of:
      0.04584193 = sum of:
        0.04584193 = weight(_text_:literaturrecherche in 5973) [ClassicSimilarity], result of:
          0.04584193 = score(doc=5973,freq=2.0), product of:
            0.262929 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.033323385 = queryNorm
            0.17435098 = fieldWeight in 5973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
      0.125 = coord(1/8)
    
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
  5. Courtois, M.P.; Berry, M.W.: Results ranking in Web search engines (1999) 0.00
    0.003380195 = product of:
      0.02704156 = sum of:
        0.02704156 = product of:
          0.10816624 = sum of:
            0.10816624 = weight(_text_:recherche in 3726) [ClassicSimilarity], result of:
              0.10816624 = score(doc=3726,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.59885794 = fieldWeight in 3726, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3726)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Comparaison des méthodes de classement de 5 moteurs de recherche (AltaVista, HotBot, Excie, Infoseek et Lycos). Sont testées la présence de tous les mots, la proximité et la localisation
  6. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.00
    0.0030099058 = product of:
      0.024079246 = sum of:
        0.024079246 = product of:
          0.07223774 = sum of:
            0.07223774 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.07223774 = score(doc=402,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  7. Archuby, C.G.: Interfaces se recuperacion para catalogos en linea con salidas ordenadas por probable relevancia (2000) 0.00
    0.0026845555 = product of:
      0.021476444 = sum of:
        0.021476444 = product of:
          0.06442933 = sum of:
            0.06442933 = weight(_text_:29 in 5727) [ClassicSimilarity], result of:
              0.06442933 = score(doc=5727,freq=4.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.5496386 = fieldWeight in 5727, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5727)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    29. 1.1996 18:23:13
    Source
    Ciencia da informacao. 29(2000) no.3, S.5-13
  8. Crestani, F.: Combination of similarity measures for effective spoken document retrieval (2003) 0.00
    0.0026575741 = product of:
      0.021260593 = sum of:
        0.021260593 = product of:
          0.063781776 = sum of:
            0.063781776 = weight(_text_:29 in 4690) [ClassicSimilarity], result of:
              0.063781776 = score(doc=4690,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.5441145 = fieldWeight in 4690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4690)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Journal of information science. 29(2003) no.2, S.87-96
  9. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.00
    0.0026336676 = product of:
      0.02106934 = sum of:
        0.02106934 = product of:
          0.06320802 = sum of:
            0.06320802 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.06320802 = score(doc=2134,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    30. 3.2001 13:32:22
  10. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.0026336676 = product of:
      0.02106934 = sum of:
        0.02106934 = product of:
          0.06320802 = sum of:
            0.06320802 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.06320802 = score(doc=3445,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    25. 8.2005 17:42:22
  11. Okada, M.; Ando, K.; Lee, S.S.; Hayashi, Y.; Aoe, J.I.: ¬An efficient substring search method by using delayed keyword extraction (2001) 0.00
    0.002277921 = product of:
      0.018223368 = sum of:
        0.018223368 = product of:
          0.0546701 = sum of:
            0.0546701 = weight(_text_:29 in 6415) [ClassicSimilarity], result of:
              0.0546701 = score(doc=6415,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46638384 = fieldWeight in 6415, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6415)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    29. 3.2002 17:24:03
  12. Cole, C.: Intelligent information retrieval: diagnosing information need : Part II: uncertainty expansion in a prototype of a diagnostic IR tool (1998) 0.00
    0.002277921 = product of:
      0.018223368 = sum of:
        0.018223368 = product of:
          0.0546701 = sum of:
            0.0546701 = weight(_text_:29 in 6432) [ClassicSimilarity], result of:
              0.0546701 = score(doc=6432,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46638384 = fieldWeight in 6432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6432)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    11. 8.2001 14:48:29
  13. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0022574293 = product of:
      0.018059434 = sum of:
        0.018059434 = product of:
          0.0541783 = sum of:
            0.0541783 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.0541783 = score(doc=58,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    14. 6.2015 22:12:44
  14. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.0022574293 = product of:
      0.018059434 = sum of:
        0.018059434 = product of:
          0.0541783 = sum of:
            0.0541783 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.0541783 = score(doc=2051,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    14. 6.2015 22:12:56
  15. Wilhelmy, A.: Phonetische Ähnlichkeitssuche in Datenbanken (1991) 0.00
    0.002028117 = product of:
      0.016224936 = sum of:
        0.016224936 = product of:
          0.06489974 = sum of:
            0.06489974 = weight(_text_:recherche in 5684) [ClassicSimilarity], result of:
              0.06489974 = score(doc=5684,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.35931477 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    In dialoggesteuerten Systemen zur Informationswiedergewinnung (Information Retrieval Systems, IRS) kann man - vergröbernd - das Wechselspiel zwischen Mensch und Computer als iterativen Prozess zur Erhöhung von Genauigkeit (Precision) auf der einen und Vollständigkeit (Recall) der Nachweise auf der anderen Seite verstehen. Vorgestellt wird ein maschinell anwendbares Verfahren, das auf phonologische Untersuchungen des Sprachwissenschaftlers Nikolaj S. Trubetzkoy (1890-1938) zurückgeht. In den Grundzügen kann es erheblich zur Verbesserung der Nachweisvollständigkeit beitragen. Dadurch, daß es die 'Ähnlichkeitsumgebungen' von Suchbegriffen in die Recherche mit einbezieht, zeigt es sich vor allem für Systeme mit koordinativer maschineller Indexierung als vorteilhaft. Bei alphabetischen Begriffen erweist sich die Einführung eines solchen zunächst nur auf den Benutzer hin orientierten Verfahrens auch aus technischer Sicht als günstig, da damit die Anzahl der Zugriffe bei den Suchvorgängen auch für große Datenvolumina niedrig gehalten werden kann
  16. Lanvent, A.: Licht im Daten Chaos (2004) 0.00
    0.0019121271 = product of:
      0.015297017 = sum of:
        0.015297017 = product of:
          0.06118807 = sum of:
            0.06118807 = weight(_text_:recherche in 2806) [ClassicSimilarity], result of:
              0.06118807 = score(doc=2806,freq=4.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.33876523 = fieldWeight in 2806, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2806)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
  17. Zhang, W.; Korf, R.E.: Performance of linear-space search algorithms (1995) 0.00
    0.0018982673 = product of:
      0.015186138 = sum of:
        0.015186138 = product of:
          0.045558415 = sum of:
            0.045558415 = weight(_text_:29 in 4744) [ClassicSimilarity], result of:
              0.045558415 = score(doc=4744,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38865322 = fieldWeight in 4744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4744)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    2. 8.1996 10:29:15
  18. Hüther, H.: Selix im DFG-Projekt Kascade (1998) 0.00
    0.0018982673 = product of:
      0.015186138 = sum of:
        0.015186138 = product of:
          0.045558415 = sum of:
            0.045558415 = weight(_text_:29 in 5151) [ClassicSimilarity], result of:
              0.045558415 = score(doc=5151,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38865322 = fieldWeight in 5151, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5151)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    25. 8.2000 19:55:29
  19. Lanvent, A.: Know-how - Suchverfahren : Intelligente Suchmaschinen erzielen mit assoziativen und linguistischen Verfahren beste Ergebnisse. (2004) 0.00
    0.0016900975 = product of:
      0.01352078 = sum of:
        0.01352078 = product of:
          0.05408312 = sum of:
            0.05408312 = weight(_text_:recherche in 2988) [ClassicSimilarity], result of:
              0.05408312 = score(doc=2988,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.29942897 = fieldWeight in 2988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2988)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Content
    "Die einfachste Form der Volltextsuche ist die Phrasensuche. Hierbei gilt es, den eingegebenen Text in der exakten Schreibweise in sämtlichen relevanten Dokumenten zu finden. Anhand von Joker-Zeichen wie Stern und Fragezeichen kann der Anwender diese Art der Suche erweitern. Boole'sche Parameter verknüpfen einen, zwei oder mehrere Begriffe zu einem Suchstring. Die häufigsten Parameter lauten UND, ODER und NICHT. So lassen sich auch komplexe Anfragen starten, etwa sollen alle Dokumente gefunden werden, die die Begriffe »Schröder« oder »Schroeder«, aber nicht »Bundeskanzler« enthalten. Kennt der Anwender nicht die exakte Schreibweise oder kommen unterschiedliche Ausprägungen eines Wortes in den gesuchten Dokumenten vor, wie Deklinationen, muss er auf fehlertolerante oder linguistische Verfahren zurückgreifen. Einige Tools wie etwa Dt Search und Findword arbeiten mit Wörterbüchern, die auch Flexionen enthalten. Sucht der Nutzer etwa nach »Baum«, findet das Tool auch »Bäume« oder etwa »Baumstamm«. Bei der phonetischen Suche setzen Programme wie Documind Pro und Findword auf einen Algorithmus, der nach dem ähnlichen Klang der Wörter recherchiert. Solche Verfahren sind demnach sprachenabhängig. Sie nehmen den Suchstring »Meier« zum Anlass, auch »Mayer« oder »Meier« nachzuschlagen. Fuzzy Logic ist ein verwandtes Verfahren, das alternative Schreibweisen oder Tippfehler verzeiht. Dieses Verfahren berücksichtigt auch Abweichungen und stellt dabei fest, dass ein bestimmter Begriff zu einem Wortstamm gehört. Eine solche Methode liefert eine größere Trefferliste und findet bei Eingabe von »Microsoft« auch Dokumente mit »Mircosoft« und »Microaoft«. Die Königsdisziplin ist die Assoziative Suche, die die Recherche nach Eingabe eines beliebigen Satzes in der natürlichen Sprache startet. Das Suchkommando »Die Meistertitel von Borussia Mönchengladbach« findet im Idealfall Texte zu den Themen Fußball, Bundesliga und Netzer."
  20. Uratani, N.; Takeda, M.: ¬A fast string-searching algorithm for multiple patterns (1993) 0.00
    0.0015186139 = product of:
      0.012148911 = sum of:
        0.012148911 = product of:
          0.03644673 = sum of:
            0.03644673 = weight(_text_:29 in 6275) [ClassicSimilarity], result of:
              0.03644673 = score(doc=6275,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.31092256 = fieldWeight in 6275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6275)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Information processing and management. 29(1993) no.6, S.775-791

Years

Languages

  • e 50
  • d 16
  • m 1
  • pt 1
  • More… Less…

Types

  • a 63
  • m 2
  • x 2
  • el 1
  • r 1
  • s 1
  • More… Less…