Search (88 results, page 1 of 5)

  • × theme_ss:"Volltextretrieval"
  1. Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001) 0.02
    0.01859586 = product of:
      0.08368137 = sum of:
        0.04795697 = weight(_text_:technik in 5937) [ClassicSimilarity], result of:
          0.04795697 = score(doc=5937,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.43987936 = fieldWeight in 5937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
        0.0062054833 = weight(_text_:in in 5937) [ClassicSimilarity], result of:
          0.0062054833 = score(doc=5937,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.2082456 = fieldWeight in 5937, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
        0.021604054 = weight(_text_:der in 5937) [ClassicSimilarity], result of:
          0.021604054 = score(doc=5937,freq=10.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.44148692 = fieldWeight in 5937, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
        0.007914863 = product of:
          0.023744587 = sum of:
            0.023744587 = weight(_text_:22 in 5937) [ClassicSimilarity], result of:
              0.023744587 = score(doc=5937,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.30952093 = fieldWeight in 5937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5937)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Abstract
    OSIRIS und ELIB sind von der Deutschen Forschungsgemeinschaft (DFG) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) geförderte Projekte an der Universität Osnabrück. Sie beschäftigen sich mit intuitiv-natürlichsprachlichen Retrievalsystemen und mit Fragen der Indexierung großer Volltexdatenbanken in dieser Technik. Die Entwicklungen haben dazu geführt, daß an sich aufwendige und komplexe Verfahren der syntaktisch-semantischen Analyse und Bewertung von textuellen Phrasen in relationale Datenbanken für Massendaten eingebettet werden konnten und nun im Produktionsbetrieb eingesetzt werden können
    Date
    14. 6.2001 12:22:31
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 54(2001) H.1, S.55-62
  2. Reinisch, F.: Wer suchet - der findet? : oder Die Überwindung der sprachlichen Grenzen bei der Suche in Volltextdatenbanken (2000) 0.01
    0.0089340545 = product of:
      0.053604327 = sum of:
        0.0050667557 = weight(_text_:in in 4919) [ClassicSimilarity], result of:
          0.0050667557 = score(doc=4919,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.17003182 = fieldWeight in 4919, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.016734429 = weight(_text_:der in 4919) [ClassicSimilarity], result of:
          0.016734429 = score(doc=4919,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34197432 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.031803142 = product of:
          0.04770471 = sum of:
            0.023960123 = weight(_text_:29 in 4919) [ClassicSimilarity], result of:
              0.023960123 = score(doc=4919,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.31092256 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
            0.023744587 = weight(_text_:22 in 4919) [ClassicSimilarity], result of:
              0.023744587 = score(doc=4919,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.30952093 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
          0.6666667 = coord(2/3)
      0.16666667 = coord(3/18)
    
    Date
    22. 7.2000 17:48:06
    Source
    Dokumente und Datenbanken in elektronischen Netzen: Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997. Hrsg.: E. Pipp
  3. Pipp, E.: Volltextdatenbanken im Vergleich (2001) 0.01
    0.0061923964 = product of:
      0.037154377 = sum of:
        0.0062697898 = weight(_text_:in in 6509) [ClassicSimilarity], result of:
          0.0062697898 = score(doc=6509,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.21040362 = fieldWeight in 6509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=6509)
        0.016907847 = weight(_text_:der in 6509) [ClassicSimilarity], result of:
          0.016907847 = score(doc=6509,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34551817 = fieldWeight in 6509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=6509)
        0.013976738 = product of:
          0.041930214 = sum of:
            0.041930214 = weight(_text_:29 in 6509) [ClassicSimilarity], result of:
              0.041930214 = score(doc=6509,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5441145 = fieldWeight in 6509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6509)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Date
    29. 9.2001 11:28:25
    Footnote
    Vortrag anlässlich der ODOK'01 in Graz, 24.-27.4.2001
  4. Wenzel, F.: Semantische Eingrenzung im Freitext-Retrieval auf der Basis morphologischer Segmentierungen (1980) 0.00
    0.004732311 = product of:
      0.028393863 = sum of:
        0.0063334443 = weight(_text_:in in 2037) [ClassicSimilarity], result of:
          0.0063334443 = score(doc=2037,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.21253976 = fieldWeight in 2037, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=2037)
        0.0120770335 = weight(_text_:der in 2037) [ClassicSimilarity], result of:
          0.0120770335 = score(doc=2037,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.2467987 = fieldWeight in 2037, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2037)
        0.009983385 = product of:
          0.029950155 = sum of:
            0.029950155 = weight(_text_:29 in 2037) [ClassicSimilarity], result of:
              0.029950155 = score(doc=2037,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38865322 = fieldWeight in 2037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2037)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    The basic problem in freetext retrieval is that the retrieval language is not properly adapted to that of the author. Morphological segmentation, where words with the same root are grouped together in the inverted file, is a good eliminator of noise and information loss, providing high recall but low precision
    Source
    Nachrichten für Dokumentation. 31(1980) H.1, S.29-35
  5. Palos, S.: Indexierung, Volltextrecherche und digital Text-Dossiers (1999) 0.00
    0.0035993292 = product of:
      0.032393962 = sum of:
        0.0050667557 = weight(_text_:in in 4069) [ClassicSimilarity], result of:
          0.0050667557 = score(doc=4069,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.17003182 = fieldWeight in 4069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4069)
        0.027327208 = weight(_text_:der in 4069) [ClassicSimilarity], result of:
          0.027327208 = score(doc=4069,freq=16.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.5584417 = fieldWeight in 4069, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4069)
      0.11111111 = coord(2/18)
    
    Abstract
    Der Artikel stellt Ergebnisse einer Studie zur vergleichenden Bewertung von Verfahren der nachfrageorientierten Inhaltserschließung im Volltextarchiv der Stuttgarter Zeitung vor. Im ersten Teil der Arbeit wird empirisch untersucht, ob in der digitalen Pressedokumentation auf eine intellektuelle Indexierung von Artikeln verzichtet werden kann, wenn ausschließlich im Volltext recherchiert wird. Im zweiten Teil der Arbeit werden Möglichkeiten und Grenzen einer innovativen Inhaltserschließung von Volltexten in der Textdokumentation der Stuttgarter Zeitung mittels Digitaler Textdossiers diskutiert
  6. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    0.003379527 = product of:
      0.020277161 = sum of:
        0.0017913685 = weight(_text_:in in 548) [ClassicSimilarity], result of:
          0.0017913685 = score(doc=548,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.060115322 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.01449244 = weight(_text_:der in 548) [ClassicSimilarity], result of:
          0.01449244 = score(doc=548,freq=18.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.29615843 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.003993354 = product of:
          0.011980061 = sum of:
            0.011980061 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.011980061 = score(doc=548,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
  7. Umstätter, W.: Freitext oder kontrolliertes Vokabular : was ist besser? (1983) 0.00
    0.002575293 = product of:
      0.023177637 = sum of:
        0.0062697898 = weight(_text_:in in 2035) [ClassicSimilarity], result of:
          0.0062697898 = score(doc=2035,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.21040362 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=2035)
        0.016907847 = weight(_text_:der in 2035) [ClassicSimilarity], result of:
          0.016907847 = score(doc=2035,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34551817 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=2035)
      0.11111111 = coord(2/18)
    
    Source
    5. Frühjahrstagung der DGD in Neu-Isenburg vom 26.-28. April 1983: Vorträge
  8. Huschens, C.: Freitextindexierung in der Parlamentsdokumentation (1986) 0.00
    0.002575293 = product of:
      0.023177637 = sum of:
        0.0062697898 = weight(_text_:in in 503) [ClassicSimilarity], result of:
          0.0062697898 = score(doc=503,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.21040362 = fieldWeight in 503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=503)
        0.016907847 = weight(_text_:der in 503) [ClassicSimilarity], result of:
          0.016907847 = score(doc=503,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34551817 = fieldWeight in 503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=503)
      0.11111111 = coord(2/18)
    
  9. Rosemann, L.: ¬Die Volltextabfrage und das Alleinstellungsmerkmal des physischen Buches (2006) 0.00
    0.0025478092 = product of:
      0.022930283 = sum of:
        0.0044559734 = weight(_text_:in in 5142) [ClassicSimilarity], result of:
          0.0044559734 = score(doc=5142,freq=22.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.14953499 = fieldWeight in 5142, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.018474309 = weight(_text_:der in 5142) [ClassicSimilarity], result of:
          0.018474309 = score(doc=5142,freq=52.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.3775294 = fieldWeight in 5142, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
      0.11111111 = coord(2/18)
    
    Content
    "Mit Google Print bzw. mittlerweile Google Book Search und dem Projekt zur Übernahme eines brancheneigenen Portals zur Pflege und Bereitstellung digitaler Daten aus Büchern namens "Volltextsuche online" initiiert durch den Börsenverein des Deutschen Buchhandels tritt ein Thema auf den Plan, das im deutschen Sprachraum lange vernachlässigt wurde: allgemein gesprochen, die Notwendigkeit der Texterschließung durch Indexierung - sei sie gedruckt in Form von Registern im Anhang von Sach- und wissenschaftlichen Büchern oder ungedruckt in Form sog. Volltextabfragen per Suchmaske am Computer. Angesichts der exponentiell wachsenden Menge an Wissen ist es gut, wenn hierzu Überlegungen angestellt werden und damit die Chance besteht, neben der wirtschaftlichen auch über die wissenstheoretische Dimension dieser Dienste nachzudenken. Zweifellos wird die Bedeutung der Indexierung von Fließtext aus wissenstheoretischer Sicht in Zukunft noch weiter wachsen und bedeutet im Falle einer Online-Plattform (wenn sie denn in naher Zukunft eine hinreichend große Menge an Büchern in ihrem Datenbestand aufweisen wird) die Erfüllung eines Traumes für die wissenschaftliche Arbeit: Es ist fantastisch, in Millisekunden das Vorhandensein von Personen, Termen, Phrasen und Wortkomposita zu ermitteln, um die Ein- bzw. Nichteinschlägigkeit eines Buches und - mehr noch -vieler Bücher für die eigene Arbeit eindeutig beantworten zu können. Es ist fantastisch, im Trefferfall die gesuchte Information sogleich auf dem Monitor exzerpieren zu können oder sich auch bei ausbleibenden Treffern das Durcharbeiten eines ganzen Buches, vielleicht sogar einer halben Bibliothek ersparen zu können. Dabei ist das letztere Resultat mindestens eine genauso wichtige Information wie die erste, denn auch sie wird- man darf fast sagen, so gut wie immer - zu einer unglaublichen Ersparnis an Zeit verhelfen; hier bedeutet allein schon die Verringerung der Datenmenge einen Zuwachs an Wissen unter minimalem Zeitaufwand. Angesichts dieser Diagnose ist die These zu wagen, die digitale Revolution beginnt erst wirklich bei der Nutzung der Volltexte selbst als Datenquelle zur Wissensabfrage.
    . . . Ich plädiere hier aus den oben genannten wissenstheoretischen Gründen nicht nur für die Aufrechterhaltung eines Mindestmaßes an Registern und Indexen im Anhang von physischen Büchern, sondern sogar für deren Ausbau, deren standardmäßige Zugabe bei Sach- und wissenschaftlichen Büchern gerade angesichts der Volltextnutzung durch Online-Abfragen. Warum? Hierzu sechs Argumente: 1. Wie oben bereits angerissen, lehrt die Erfahrung bei CD-ROM-Zugaben zu opulenten Werken, dass Parallelmedien mit Parallelinhalten von den Nutzern nicht wirklich angenommen werden; es ist umständlich, zur Auffindung bestimmter Textstellen den Computer befragen zu müssen und die Fundstellen dann zwischen zwei Buchdeckeln nachzuschlagen. 2. Über frei wählbare Suchbegriffe seitens des Nutzers ist noch keine Qualität der Suchergebnisse garantiert. Erst das Einrechnen entsprechender Verweisungsbegriffe und Synonyme in die Suchabfrage führt zu Qualität des Ergebnisses. Die scheinbar eingesparten Kosten einer einmaligen bzw. abonnementartigen Investition in eine Online-Verfügbarkeit der Buchinhalte vonseiten der Verlage werden dann über die Hintertür doch wieder fällig, wenn sich nämlich herausstellt, dass Nutzer bei der von ihnen gesuchten Information nicht fündig werden, weil sie unter dem "falschen", d.h. entweder ihnen nicht bekannten oder einem ihnen gerade nicht präsenten Schlagwort gesucht haben. Die Online-Suchabfrage, die auf den ersten Blick höchst nutzerfreundlich erscheint, da eine ungeheure Menge an Titeln die Abfrage umfasst, erweist sich womöglich als wenig brauchbar, wenn sich die Trefferqualität aus den genannten Gründen als beschränkt herausstellt. 3. Nur bei entsprechenden Restriktionen des Zugangs bzw. der präsentierten Textausschnitte werden die Verlage es gewährleistet sehen, dass die Nutzerin, der Nutzer nicht vom Kauf des physischen Buches Abstand nehmen. Nur wenn die Nutzer wissen, dass ihnen gerade jene Informationen am Bildschirm vorenthalten werden, die sie im zu erwerbenden Buch mit Gewissheit finden werden, werden sie das Buch noch erwerben wollen. Wer auf die Schnelle nur ein Kochrezept aus einem teuer bebilderten Kochbuch der Oberklasse abrufen kann, wird das teure Kochbuch eben nicht mehr kaufen. Analog stellt sich die Frage, ob nicht aus diesem Grunde auch Bibliotheken erwägen werden, angesichts der elektronischen Präsenz teuerer physischer Bücher auf den Erwerb der Letzteren zu verzichten, wohl wissend, dass den Wissenschaftlern im Zweifel einige Mausklicks genügen, um die gewünschte Begriffsrecherche erschöpfend beantwortet zu finden.
    4. Vermutlich wird sich aufgrund der genannten Gründe der Buchservice Volltextsuche als heterogen darstellen: Einige Verlage werden gar nicht mitspielen, andere werden ein Buch im Vollzugriff, ein anderes nur zum Teil, ein drittes nur als Metainformation usw. indizieren lassen. Dies wird letztlich ebenfalls die Trefferqualität schmälern, da der Nutzer dann wiederum wissen muss, genau welche Informationen und Texte ihm bei seiner Suche vorenthalten werden. Das gedruckte Sachbuch wird gegen seinen eigenen digitalen Klon ein Alleinstellungsmerkmal brauchen, um weiterhin attraktiv zu sein. 5. Ein solches Alleinstellungsmerkmal würde m.E. maßgeblich durch die Erstellung von gedruckten Registern bereits in der Druckausgabe erreicht werden. Damit würde die Druckausgabe tatsächlich an Wert gewinnen und der Buchkäufer erhielte einen echten Mehrwert. Zum einen spiegelt sich bereits in der Erstellung konventioneller gedruckter Register die zweite digitale Revolution wider: Moderne Registererstellung basiert heutzutage ebenfalls auf der digitalen Verwertung des Volltextes. Zum anderen erfordert das "Registermachen" zugleich die Erbringung jener o.g. sachdienlichen Mehrinformationen wie Verweisungsbegriffe, vernünftige Klassifizierungen, nicht-redundante Begriffsauswahl etc., die nur begrenzt automatisierbar sind und Fachwissen erfordern. Erst diese beiden Komponenten lassen die Indexierung schlussendlich zu einer hochwertigen Aufbereitung sequentieller Information werden. 6. Genau diese Mehr- und Metainformationen, die die vorausgegangene Erstellung eines Print-Vollregisters geliefert hat, lassen sich dann in den Suchalgorithmus der Online-Suche zur Qualitätssteigerung der Treffer einrechnen."
  10. Baguhn, J.: Volltextretrieval : stürmische Entwicklungen (1995) 0.00
    0.0025451102 = product of:
      0.02290599 = sum of:
        0.003582737 = weight(_text_:in in 2329) [ClassicSimilarity], result of:
          0.003582737 = score(doc=2329,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.120230645 = fieldWeight in 2329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=2329)
        0.019323254 = weight(_text_:der in 2329) [ClassicSimilarity], result of:
          0.019323254 = score(doc=2329,freq=8.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.3948779 = fieldWeight in 2329, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2329)
      0.11111111 = coord(2/18)
    
    Abstract
    10 Jahre cogito lassen auch uns auf diesen in der Branche langen Zeitraum zurückblicken. Der Informationsmarkt 1985 war noch gut überschaubar und von der PSI noch gar nicht als attraktiv erkannt. Doch schon zu diesem Zeitpunkt machten wir uns Gedanken über die Verarbeitung von unstrukturierten Informationen, da mehrere Nachrichtenverteilsysteme für größere Behörden relalisiert wurden. Die Wünsche der Benutzer waren mit herkömmlichen Datenbanken nur schwer zu realisieren oder die Zugriffszeiten zu lang
  11. Enderle, W.: Neue Wege der bibliothekarischen Informationserschließung : von der Erschließung unselbständiger Literatur über Volltextindizierung bis zu Hypertext- und Expertensystemen (1994) 0.00
    0.0024892949 = product of:
      0.022403654 = sum of:
        0.0046541123 = weight(_text_:in in 2035) [ClassicSimilarity], result of:
          0.0046541123 = score(doc=2035,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1561842 = fieldWeight in 2035, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2035)
        0.017749542 = weight(_text_:der in 2035) [ClassicSimilarity], result of:
          0.017749542 = score(doc=2035,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.36271852 = fieldWeight in 2035, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2035)
      0.11111111 = coord(2/18)
    
    Abstract
    Die bibliothekarische Informationserschließung war unist bislang durch den OPAC geprägt, der im wesentlichen die Monographien und Zeitschriften einer Bibliothek erschließt. Es werden 2 neue Bereiche skizziert, die in Zukunft ebenfalls Teil der bibliothekarischen Informationserschließung sein können und werden: die Erschließung unselbständiger Literatur und der Einsatz automatisierter 'reference and information services'. Im ersten Fall ist die Entwicklung bereits weit vorangeschritten, Verbundsysteme und Library Suppliers bieten bereits Inhaltsdaten von Zeitschriften als Fremdleistung an. Im zweiten Fall ist die Entwicklung, vor allem im angloamerikanischen Raum, noch - trotz zahlreicher Projekte - in den Anfängen. Der Einsatz wissensbasierter Systeme in diesem Bereich macht die Aufgaben hier besonders komplex, biete zugleich aber hanz neue Lösungsmöglichkeiten an, wie am Beispiel einiger amerikanischer Projekte dokumentiert wird. Wesentlich ist, daß Informationserschließungssysteme, wie sie ansatzweise im Internet bereits eingesetzt werden, den gesamten bereich elektronischer wie herkömmlicher Information umfassen, um einen allgemeinen und umfassenden Einstieg für den Informationssuchenden zu bieten
  12. Basch, R.: ¬Die sieben Todsünden der Volltextrecherche (1990) 0.00
    0.0024819607 = product of:
      0.022337645 = sum of:
        0.005429798 = weight(_text_:in in 2034) [ClassicSimilarity], result of:
          0.005429798 = score(doc=2034,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1822149 = fieldWeight in 2034, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2034)
        0.016907847 = weight(_text_:der in 2034) [ClassicSimilarity], result of:
          0.016907847 = score(doc=2034,freq=8.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34551817 = fieldWeight in 2034, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2034)
      0.11111111 = coord(2/18)
    
    Abstract
    Dieser Artikel diskutiert die "sieben Todsünden" der Volltextrecherche und macht sowohl praktische als auch utopische Vorschläge zu ihrer Überwindung. Zunächst wird versucht, die persönlichen "sieben Sünden" auf einer Standardliste zu verzeichnen. Je nachdem, welches Standardwerk man zu Rate zieht, kommen hierbei einige interessante Abweichungen vor. Selbst der Thesaurus von WordPerfect zeigt auf die Frage nach "Sünde" hilfsbereit alle sieben! Ein Beispiel für "Stolz" ist das Online-System, für das in ganzseitigen Anzeigen in großen nationalen Publikationen erklärt wird: 'Unser Angebot ist eine Welt von Informationen auf Knopfdruck'. "Gier" ist das Downloading von Volltexten, "Trägheit" die langsame Verarbeitungszeit: "Geiz" hat etwas mit der Preisgestaltung zu tun, und alles liegt irgendwo zwischen "Lust" und "Ärger"; c'est la vie, n'est-ce pas?
    Footnote
    dt. Übers. - Original in: Database Nr.8(1989) S.15-23
  13. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.00
    0.0023974606 = product of:
      0.021577146 = sum of:
        0.0053741056 = weight(_text_:in in 1947) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=1947,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 1947, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.01620304 = weight(_text_:der in 1947) [ClassicSimilarity], result of:
          0.01620304 = score(doc=1947,freq=10.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.3311152 = fieldWeight in 1947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
      0.11111111 = coord(2/18)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
  14. Stegentritt, E.: EMIR: Multilinguales Freitextretrieval Projekt (1992) 0.00
    0.002207394 = product of:
      0.019866545 = sum of:
        0.0053741056 = weight(_text_:in in 3149) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=3149,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 3149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=3149)
        0.01449244 = weight(_text_:der in 3149) [ClassicSimilarity], result of:
          0.01449244 = score(doc=3149,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.29615843 = fieldWeight in 3149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=3149)
      0.11111111 = coord(2/18)
    
    Source
    Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
  15. Witt, M.: Au sujet des mots-clés (1997) 0.00
    0.002051154 = product of:
      0.018460386 = sum of:
        0.007165474 = weight(_text_:in in 1666) [ClassicSimilarity], result of:
          0.007165474 = score(doc=1666,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.24046129 = fieldWeight in 1666, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=1666)
        0.011294912 = product of:
          0.033884734 = sum of:
            0.033884734 = weight(_text_:29 in 1666) [ClassicSimilarity], result of:
              0.033884734 = score(doc=1666,freq=4.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.43971092 = fieldWeight in 1666, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1666)
          0.33333334 = coord(1/3)
      0.11111111 = coord(2/18)
    
    Abstract
    Information research using keywords is largely ignored by readers but in medium sized libraries such as that of the City of Science and Industry (Paris), with a multimedia collection of some 200.000 documents, it is the most effective tool. The reader, however, needs guidance in using this technique, and in refining searches to reduce noise. Examples are given demonstrating how keyword searches can identify non-indexed material, documents in other languages, and collective authors
    Date
    29. 1.1996 16:50:24
    29. 7.1998 18:19:41
  16. Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen (2018) 0.00
    0.0019916587 = product of:
      0.017924927 = sum of:
        0.0053741056 = weight(_text_:in in 4595) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=4595,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 4595, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
        0.012550822 = weight(_text_:der in 4595) [ClassicSimilarity], result of:
          0.012550822 = score(doc=4595,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.25648075 = fieldWeight in 4595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4595)
      0.11111111 = coord(2/18)
    
    Abstract
    Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
  17. Dambeck, H.; Engler, T.: Gesucht und gefunden : Neun Volltext-Suchprogramme für den Desktop (2002) 0.00
    0.0019529433 = product of:
      0.01757649 = sum of:
        0.009661627 = weight(_text_:der in 1169) [ClassicSimilarity], result of:
          0.009661627 = score(doc=1169,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.19743896 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1169)
        0.007914863 = product of:
          0.023744587 = sum of:
            0.023744587 = weight(_text_:22 in 1169) [ClassicSimilarity], result of:
              0.023744587 = score(doc=1169,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.30952093 = fieldWeight in 1169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1169)
          0.33333334 = coord(1/3)
      0.11111111 = coord(2/18)
    
    Abstract
    Ordnung ist das halbe Leben. Schön, aber was ist mit der anderen Hälfte? Zumindest für den eigenen PC gibt es Hilfe, um auch im größten Chaos die Übersicht zu behalten. Volltext-Suchprogramme finden binnen Sekunden alle Text-, Excel- oder PDF-Dateien, die den gewünschten Suchtext enthalten
    Source
    c't. 2002, H.22, S.190-197
  18. Molto, M.: Improving full text search performance through textual analysis (1993) 0.00
    0.0015769101 = product of:
      0.014192191 = sum of:
        0.0062054833 = weight(_text_:in in 5099) [ClassicSimilarity], result of:
          0.0062054833 = score(doc=5099,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.2082456 = fieldWeight in 5099, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5099)
        0.007986708 = product of:
          0.023960123 = sum of:
            0.023960123 = weight(_text_:29 in 5099) [ClassicSimilarity], result of:
              0.023960123 = score(doc=5099,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.31092256 = fieldWeight in 5099, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5099)
          0.33333334 = coord(1/3)
      0.11111111 = coord(2/18)
    
    Abstract
    Explores the potential of text analysis as a tool in full text search and design improvement. Reports on a trial analysis performed in the domain of family history. The findings offered insights into possible gains and losses in using one search or design strategy versus another and strong evidence was provided to the potential of text analysis. Makes search and design recommendation
    Source
    Information processing and management. 29(1993) no.5, S.614-632
  19. Kristensen, J.: Expanding end-users' query statements for free text searching with a search-aid thesaurus (1993) 0.00
    0.0015769101 = product of:
      0.014192191 = sum of:
        0.0062054833 = weight(_text_:in in 6621) [ClassicSimilarity], result of:
          0.0062054833 = score(doc=6621,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.2082456 = fieldWeight in 6621, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6621)
        0.007986708 = product of:
          0.023960123 = sum of:
            0.023960123 = weight(_text_:29 in 6621) [ClassicSimilarity], result of:
              0.023960123 = score(doc=6621,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.31092256 = fieldWeight in 6621, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6621)
          0.33333334 = coord(1/3)
      0.11111111 = coord(2/18)
    
    Abstract
    Tests the effectiveness of a thesaurus as a search-aid in free text searching of a full text database. A set of queries was searched against a large full text database of newspaper articles. The thesaurus contained equivalence, hierarchical and associative relationships. Each query was searched in five modes: basic search, synonym search, narrower term search, related term search, and union of all previous searches. The searches were analyzed in terms of relative recall and precision
    Source
    Information processing and management. 29(1993) no.6, S.733-744
  20. Leppanen, E.: Homografiongelma tekstihaussa ja homografien disambiguoinnin vaikutukset (1996) 0.00
    0.0015100182 = product of:
      0.0135901645 = sum of:
        0.007600134 = weight(_text_:in in 27) [ClassicSimilarity], result of:
          0.007600134 = score(doc=27,freq=16.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.25504774 = fieldWeight in 27, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.005990031 = product of:
          0.017970093 = sum of:
            0.017970093 = weight(_text_:29 in 27) [ClassicSimilarity], result of:
              0.017970093 = score(doc=27,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23319192 = fieldWeight in 27, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=27)
          0.33333334 = coord(1/3)
      0.11111111 = coord(2/18)
    
    Abstract
    Homonymy is known to often cause false drops in free text searching in a full text database. The problem is quite common and difficult to avoid in Finnish, but nobody has examined it before. Reports on a study that examined the frequency of, and solutions to, the homonymy problem, based on searches made in a Finnish full text database containing about 55.000 newspaper articles. The results indicate that homonymy is not a very serious problem in full text searching, with only about 1 search result set out of 4 containing false drops caused by homonymy. Several other reasons for nonrelevance were much more common. However, in some set results there were a considerable number of homonymy errors, so the number seems to be very random. A study was also made into whether homonyms can be disambiguated by syntactic analysis. The result was that 75,2% of homonyms were disambiguated by this method. Verb homonyms were considerably easier to disambiguate than substantives. Although homonymy is not a very big problem it could perhaps easily be eliminated if there was a suitable syntactic analyzer in the IR system
    Date
    9.12.1997 18:33:29
    Footnote
    Übers. d. Titels: The homonymy problem in free text searching and the results of homonymy disambiguation

Years

Languages

Types

  • a 82
  • m 3
  • x 2
  • el 1
  • r 1
  • s 1
  • More… Less…