Search (28 results, page 1 of 2)

  • × theme_ss:"Volltextretrieval"
  1. Kuhlen, R.; Hess, M.S.: Passagen-Retrieval : auch eine Möglichkeit der automatischen Verknüpfung in Hypertexten (1993) 0.07
    0.06520742 = product of:
      0.13041484 = sum of:
        0.015386774 = weight(_text_:und in 1947) [ClassicSimilarity], result of:
          0.015386774 = score(doc=1947,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.07342099 = weight(_text_:anwendung in 1947) [ClassicSimilarity], result of:
          0.07342099 = score(doc=1947,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 1947, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
        0.04160709 = weight(_text_:des in 1947) [ClassicSimilarity], result of:
          0.04160709 = score(doc=1947,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.31797147 = fieldWeight in 1947, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1947)
      0.5 = coord(3/6)
    
    Abstract
    Das Passagen-Retrieval erlaubt explorierendes Navigieren in Volltextdatenbanken, aber auch in textorientierten Hypertextbasen. Es wird experimentell an fünf, im Information Retrieval geläufigen Assoziationskoeffizienten überprüft, inwieweit mit ihnen Textpassagen, gewonnen aus der Konversion von Absätzen aus einer Buchvorlage (Hypertextbuch von R. Kuhlen, 1991b), automatisch verknüpft werden können. Voraussetzung für die Anwendung der Maße ist eine Volltextinvertierung mit linguistisch abgesicherter Stammformenreduktion. Die Ergebnisse, gewonnen aus der Bewertung der Verknüpfungsangebote entsprechend den Berechnungen nach den fünf Koeffizienten und aus dem Vergleich mit einer intellektuellen Verknüpfungsvorgabe, zeigen eine deutliche Präferenz zugunsten des Asymmetrie-Maßes, das vielleicht noch durch eine Kombination mit dem Cosinus-Maß verbessert werden könnte. Die automatisch erstellten Verknüpfungsangebote sind sowohl im Autoren-Modus zur Unterstützung des Aufbaus von Hypertextbasen sinnvoll als auch im Lese-Modus als Möglichkeit des assoziativen Navigierens in großen Hypertextbasen verwendbar.
  2. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.05
    0.05366253 = product of:
      0.10732506 = sum of:
        0.036985204 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.036985204 = score(doc=548,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3531656 = fieldWeight in 548, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.04804372 = weight(_text_:des in 548) [ClassicSimilarity], result of:
          0.04804372 = score(doc=548,freq=18.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 548, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.022296138 = product of:
          0.044592276 = sum of:
            0.044592276 = weight(_text_:thesaurus in 548) [ClassicSimilarity], result of:
              0.044592276 = score(doc=548,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.20422474 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Series
    Saarbrücker Beiträge zur Sprach- und Translationswissenschaft; Bd.8
  3. Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001) 0.03
    0.030161198 = product of:
      0.09048359 = sum of:
        0.06487634 = weight(_text_:und in 5937) [ClassicSimilarity], result of:
          0.06487634 = score(doc=5937,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.6194934 = fieldWeight in 5937, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 5937) [ClassicSimilarity], result of:
              0.051214505 = score(doc=5937,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 5937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5937)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    OSIRIS und ELIB sind von der Deutschen Forschungsgemeinschaft (DFG) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) geförderte Projekte an der Universität Osnabrück. Sie beschäftigen sich mit intuitiv-natürlichsprachlichen Retrievalsystemen und mit Fragen der Indexierung großer Volltexdatenbanken in dieser Technik. Die Entwicklungen haben dazu geführt, daß an sich aufwendige und komplexe Verfahren der syntaktisch-semantischen Analyse und Bewertung von textuellen Phrasen in relationale Datenbanken für Massendaten eingebettet werden konnten und nun im Produktionsbetrieb eingesetzt werden können
    Date
    14. 6.2001 12:22:31
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 54(2001) H.1, S.55-62
  4. Stegentritt, E.: EMIR: Multilinguales Freitextretrieval Projekt (1992) 0.03
    0.026272424 = product of:
      0.07881727 = sum of:
        0.030773548 = weight(_text_:und in 3149) [ClassicSimilarity], result of:
          0.030773548 = score(doc=3149,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 3149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3149)
        0.04804372 = weight(_text_:des in 3149) [ClassicSimilarity], result of:
          0.04804372 = score(doc=3149,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.36716178 = fieldWeight in 3149, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=3149)
      0.33333334 = coord(2/6)
    
    Source
    Mensch und Maschine: Informationelle Schnittstellen der Kommunikation. Proc. des 3. Int. Symposiums für Informationswissenschaft (ISI'92), 5.-7.11.1992 in Saarbrücken. Hrsg.: H.H. Zimmermann, H.-D. Luckhardt u. A. Schulz
  5. Basch, R.: ¬Die sieben Todsünden der Volltextrecherche (1990) 0.02
    0.023370232 = product of:
      0.07011069 = sum of:
        0.031092454 = weight(_text_:und in 2034) [ClassicSimilarity], result of:
          0.031092454 = score(doc=2034,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2968967 = fieldWeight in 2034, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2034)
        0.039018244 = product of:
          0.07803649 = sum of:
            0.07803649 = weight(_text_:thesaurus in 2034) [ClassicSimilarity], result of:
              0.07803649 = score(doc=2034,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.3573933 = fieldWeight in 2034, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2034)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Artikel diskutiert die "sieben Todsünden" der Volltextrecherche und macht sowohl praktische als auch utopische Vorschläge zu ihrer Überwindung. Zunächst wird versucht, die persönlichen "sieben Sünden" auf einer Standardliste zu verzeichnen. Je nachdem, welches Standardwerk man zu Rate zieht, kommen hierbei einige interessante Abweichungen vor. Selbst der Thesaurus von WordPerfect zeigt auf die Frage nach "Sünde" hilfsbereit alle sieben! Ein Beispiel für "Stolz" ist das Online-System, für das in ganzseitigen Anzeigen in großen nationalen Publikationen erklärt wird: 'Unser Angebot ist eine Welt von Informationen auf Knopfdruck'. "Gier" ist das Downloading von Volltexten, "Trägheit" die langsame Verarbeitungszeit: "Geiz" hat etwas mit der Preisgestaltung zu tun, und alles liegt irgendwo zwischen "Lust" und "Ärger"; c'est la vie, n'est-ce pas?
  6. Rosemann, L.: ¬Die Volltextabfrage und das Alleinstellungsmerkmal des physischen Buches (2006) 0.02
    0.021166194 = product of:
      0.06349858 = sum of:
        0.031720646 = weight(_text_:und in 5142) [ClassicSimilarity], result of:
          0.031720646 = score(doc=5142,freq=34.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3028952 = fieldWeight in 5142, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.031777933 = weight(_text_:des in 5142) [ClassicSimilarity], result of:
          0.031777933 = score(doc=5142,freq=14.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24285468 = fieldWeight in 5142, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
      0.33333334 = coord(2/6)
    
    Content
    "Mit Google Print bzw. mittlerweile Google Book Search und dem Projekt zur Übernahme eines brancheneigenen Portals zur Pflege und Bereitstellung digitaler Daten aus Büchern namens "Volltextsuche online" initiiert durch den Börsenverein des Deutschen Buchhandels tritt ein Thema auf den Plan, das im deutschen Sprachraum lange vernachlässigt wurde: allgemein gesprochen, die Notwendigkeit der Texterschließung durch Indexierung - sei sie gedruckt in Form von Registern im Anhang von Sach- und wissenschaftlichen Büchern oder ungedruckt in Form sog. Volltextabfragen per Suchmaske am Computer. Angesichts der exponentiell wachsenden Menge an Wissen ist es gut, wenn hierzu Überlegungen angestellt werden und damit die Chance besteht, neben der wirtschaftlichen auch über die wissenstheoretische Dimension dieser Dienste nachzudenken. Zweifellos wird die Bedeutung der Indexierung von Fließtext aus wissenstheoretischer Sicht in Zukunft noch weiter wachsen und bedeutet im Falle einer Online-Plattform (wenn sie denn in naher Zukunft eine hinreichend große Menge an Büchern in ihrem Datenbestand aufweisen wird) die Erfüllung eines Traumes für die wissenschaftliche Arbeit: Es ist fantastisch, in Millisekunden das Vorhandensein von Personen, Termen, Phrasen und Wortkomposita zu ermitteln, um die Ein- bzw. Nichteinschlägigkeit eines Buches und - mehr noch -vieler Bücher für die eigene Arbeit eindeutig beantworten zu können. Es ist fantastisch, im Trefferfall die gesuchte Information sogleich auf dem Monitor exzerpieren zu können oder sich auch bei ausbleibenden Treffern das Durcharbeiten eines ganzen Buches, vielleicht sogar einer halben Bibliothek ersparen zu können. Dabei ist das letztere Resultat mindestens eine genauso wichtige Information wie die erste, denn auch sie wird- man darf fast sagen, so gut wie immer - zu einer unglaublichen Ersparnis an Zeit verhelfen; hier bedeutet allein schon die Verringerung der Datenmenge einen Zuwachs an Wissen unter minimalem Zeitaufwand. Angesichts dieser Diagnose ist die These zu wagen, die digitale Revolution beginnt erst wirklich bei der Nutzung der Volltexte selbst als Datenquelle zur Wissensabfrage.
    . . . Ich plädiere hier aus den oben genannten wissenstheoretischen Gründen nicht nur für die Aufrechterhaltung eines Mindestmaßes an Registern und Indexen im Anhang von physischen Büchern, sondern sogar für deren Ausbau, deren standardmäßige Zugabe bei Sach- und wissenschaftlichen Büchern gerade angesichts der Volltextnutzung durch Online-Abfragen. Warum? Hierzu sechs Argumente: 1. Wie oben bereits angerissen, lehrt die Erfahrung bei CD-ROM-Zugaben zu opulenten Werken, dass Parallelmedien mit Parallelinhalten von den Nutzern nicht wirklich angenommen werden; es ist umständlich, zur Auffindung bestimmter Textstellen den Computer befragen zu müssen und die Fundstellen dann zwischen zwei Buchdeckeln nachzuschlagen. 2. Über frei wählbare Suchbegriffe seitens des Nutzers ist noch keine Qualität der Suchergebnisse garantiert. Erst das Einrechnen entsprechender Verweisungsbegriffe und Synonyme in die Suchabfrage führt zu Qualität des Ergebnisses. Die scheinbar eingesparten Kosten einer einmaligen bzw. abonnementartigen Investition in eine Online-Verfügbarkeit der Buchinhalte vonseiten der Verlage werden dann über die Hintertür doch wieder fällig, wenn sich nämlich herausstellt, dass Nutzer bei der von ihnen gesuchten Information nicht fündig werden, weil sie unter dem "falschen", d.h. entweder ihnen nicht bekannten oder einem ihnen gerade nicht präsenten Schlagwort gesucht haben. Die Online-Suchabfrage, die auf den ersten Blick höchst nutzerfreundlich erscheint, da eine ungeheure Menge an Titeln die Abfrage umfasst, erweist sich womöglich als wenig brauchbar, wenn sich die Trefferqualität aus den genannten Gründen als beschränkt herausstellt. 3. Nur bei entsprechenden Restriktionen des Zugangs bzw. der präsentierten Textausschnitte werden die Verlage es gewährleistet sehen, dass die Nutzerin, der Nutzer nicht vom Kauf des physischen Buches Abstand nehmen. Nur wenn die Nutzer wissen, dass ihnen gerade jene Informationen am Bildschirm vorenthalten werden, die sie im zu erwerbenden Buch mit Gewissheit finden werden, werden sie das Buch noch erwerben wollen. Wer auf die Schnelle nur ein Kochrezept aus einem teuer bebilderten Kochbuch der Oberklasse abrufen kann, wird das teure Kochbuch eben nicht mehr kaufen. Analog stellt sich die Frage, ob nicht aus diesem Grunde auch Bibliotheken erwägen werden, angesichts der elektronischen Präsenz teuerer physischer Bücher auf den Erwerb der Letzteren zu verzichten, wohl wissend, dass den Wissenschaftlern im Zweifel einige Mausklicks genügen, um die gewünschte Begriffsrecherche erschöpfend beantwortet zu finden.
    4. Vermutlich wird sich aufgrund der genannten Gründe der Buchservice Volltextsuche als heterogen darstellen: Einige Verlage werden gar nicht mitspielen, andere werden ein Buch im Vollzugriff, ein anderes nur zum Teil, ein drittes nur als Metainformation usw. indizieren lassen. Dies wird letztlich ebenfalls die Trefferqualität schmälern, da der Nutzer dann wiederum wissen muss, genau welche Informationen und Texte ihm bei seiner Suche vorenthalten werden. Das gedruckte Sachbuch wird gegen seinen eigenen digitalen Klon ein Alleinstellungsmerkmal brauchen, um weiterhin attraktiv zu sein. 5. Ein solches Alleinstellungsmerkmal würde m.E. maßgeblich durch die Erstellung von gedruckten Registern bereits in der Druckausgabe erreicht werden. Damit würde die Druckausgabe tatsächlich an Wert gewinnen und der Buchkäufer erhielte einen echten Mehrwert. Zum einen spiegelt sich bereits in der Erstellung konventioneller gedruckter Register die zweite digitale Revolution wider: Moderne Registererstellung basiert heutzutage ebenfalls auf der digitalen Verwertung des Volltextes. Zum anderen erfordert das "Registermachen" zugleich die Erbringung jener o.g. sachdienlichen Mehrinformationen wie Verweisungsbegriffe, vernünftige Klassifizierungen, nicht-redundante Begriffsauswahl etc., die nur begrenzt automatisierbar sind und Fachwissen erfordern. Erst diese beiden Komponenten lassen die Indexierung schlussendlich zu einer hochwertigen Aufbereitung sequentieller Information werden. 6. Genau diese Mehr- und Metainformationen, die die vorausgegangene Erstellung eines Print-Vollregisters geliefert hat, lassen sich dann in den Suchalgorithmus der Online-Suche zur Qualitätssteigerung der Treffer einrechnen."
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.4, S.217-218
  7. Reinisch, F.: Wer suchet - der findet? : oder Die Überwindung der sprachlichen Grenzen bei der Suche in Volltextdatenbanken (2000) 0.02
    0.020380497 = product of:
      0.06114149 = sum of:
        0.035534237 = weight(_text_:und in 4919) [ClassicSimilarity], result of:
          0.035534237 = score(doc=4919,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 4919) [ClassicSimilarity], result of:
              0.051214505 = score(doc=4919,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.2000 17:48:06
    Source
    Dokumente und Datenbanken in elektronischen Netzen: Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997. Hrsg.: E. Pipp
  8. Dambeck, H.; Engler, T.: Gesucht und gefunden : Neun Volltext-Suchprogramme für den Desktop (2002) 0.02
    0.015374318 = product of:
      0.046122953 = sum of:
        0.0205157 = weight(_text_:und in 1169) [ClassicSimilarity], result of:
          0.0205157 = score(doc=1169,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.19590102 = fieldWeight in 1169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1169)
        0.025607252 = product of:
          0.051214505 = sum of:
            0.051214505 = weight(_text_:22 in 1169) [ClassicSimilarity], result of:
              0.051214505 = score(doc=1169,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30952093 = fieldWeight in 1169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1169)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Source
    c't. 2002, H.22, S.190-197
  9. Kristensen, J.; Järvelin, K.: ¬The effectiveness of a searching thesaurus in free-text searching in a full-text database (1990) 0.01
    0.014864093 = product of:
      0.08918455 = sum of:
        0.08918455 = product of:
          0.1783691 = sum of:
            0.1783691 = weight(_text_:thesaurus in 2043) [ClassicSimilarity], result of:
              0.1783691 = score(doc=2043,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.81689894 = fieldWeight in 2043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.125 = fieldNorm(doc=2043)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
  10. Kristensen, J.: Expanding end-users' query statements for free text searching with a search-aid thesaurus (1993) 0.01
    0.012872683 = product of:
      0.07723609 = sum of:
        0.07723609 = product of:
          0.15447219 = sum of:
            0.15447219 = weight(_text_:thesaurus in 6621) [ClassicSimilarity], result of:
              0.15447219 = score(doc=6621,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.7074553 = fieldWeight in 6621, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6621)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Tests the effectiveness of a thesaurus as a search-aid in free text searching of a full text database. A set of queries was searched against a large full text database of newspaper articles. The thesaurus contained equivalence, hierarchical and associative relationships. Each query was searched in five modes: basic search, synonym search, narrower term search, related term search, and union of all previous searches. The searches were analyzed in terms of relative recall and precision
  11. Muddamalle, M.R.: Natural language versus controlled vocabulary in information retrieval : a case study in soil mechanics (1998) 0.01
    0.009654513 = product of:
      0.057927076 = sum of:
        0.057927076 = product of:
          0.11585415 = sum of:
            0.11585415 = weight(_text_:thesaurus in 1795) [ClassicSimilarity], result of:
              0.11585415 = score(doc=1795,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5305915 = fieldWeight in 1795, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1795)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    The effectiveness ot two information retrieval tools, namely, thesaurus and natural language, in an information retrieval system has been studies. A database SOILSC was created using a HP3000/58 series minicomputer and MINISIS software. Records of articles totalling 17.918 published in various journals, received in the Central Water and Power Research Station (CWPRS) library (Pune, India) since 1988, have been stored. The information needs of a soil mechanics group have been formulated using thesaurus and natural language into 81 search strategies. In consultation with the user, relevance of the retrieved documents was assessed and, recall (R) and precision (P) values were calculated. Since both thesaurus and natural language have shown identical performance in information retrieval, a combination of these two have been suggested for making searches and providing relevant information
  12. Witt, M.: Au sujet des mots-clés (1997) 0.01
    0.00924602 = product of:
      0.055476114 = sum of:
        0.055476114 = weight(_text_:des in 1666) [ClassicSimilarity], result of:
          0.055476114 = score(doc=1666,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.42396194 = fieldWeight in 1666, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1666)
      0.16666667 = coord(1/6)
    
    Footnote
    Übers. des Titels: On the subject of keywords
    Source
    Bulletin d'informations de l'Association des Bibliothecaires Francais. 1997, no.176, S.121-123
  13. Dow Jones unveils knowledge indexing system (1997) 0.01
    0.0074320463 = product of:
      0.044592276 = sum of:
        0.044592276 = product of:
          0.08918455 = sum of:
            0.08918455 = weight(_text_:thesaurus in 751) [ClassicSimilarity], result of:
              0.08918455 = score(doc=751,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.40844947 = fieldWeight in 751, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0625 = fieldNorm(doc=751)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Dow Jones Interactive Publishing has developed a sophisticated automatic knowledge indexing system that will allow searchers of the Dow Jones News / Retrieval service to get highly targeted results from a search in the service's Publications Library. Instead of relying on a thesaurus of company names, the new system uses a combination of that basic algorithm plus unique rules based on the editorial styles of individual publications in the Library. Dow Jones have also announced its acceptance of the definitions of 'selected full text' and 'full text' from Bibliodata's Fulltext Sources Online directory
  14. Trinkwalder, A.: Wortdetektive : Volltext-Suchmaschinen für Festplatte und Intranet (2000) 0.01
    0.007402966 = product of:
      0.044417795 = sum of:
        0.044417795 = weight(_text_:und in 5318) [ClassicSimilarity], result of:
          0.044417795 = score(doc=5318,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.42413816 = fieldWeight in 5318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5318)
      0.16666667 = coord(1/6)
    
    Abstract
    Oft sorgt die eigene Unordentlichkeit dafür, dass wichtige Texte unauffindbar sind, manchmal lässt sich aber auch einfach die schiere Menge nicht bändigen und vernünftig sortieren. Text-Retrieval-Systeme durchforsten das Dickicht und versprechen den schnellen Weg zu wertvollen Informationen
  15. Schwarz, C.: Freitextrecherche: Grenzen und Möglichkeiten (1982) 0.01
    0.006838567 = product of:
      0.0410314 = sum of:
        0.0410314 = weight(_text_:und in 1349) [ClassicSimilarity], result of:
          0.0410314 = score(doc=1349,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39180204 = fieldWeight in 1349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=1349)
      0.16666667 = coord(1/6)
    
  16. Maag, D.: Leistungsmerkmale von Volltextretrievalsystemen : Anforderungen an die künftige Weiterentwicklung (1989) 0.01
    0.006838567 = product of:
      0.0410314 = sum of:
        0.0410314 = weight(_text_:und in 2747) [ClassicSimilarity], result of:
          0.0410314 = score(doc=2747,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.39180204 = fieldWeight in 2747, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2747)
      0.16666667 = coord(1/6)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  17. Albus, W.; Smulders, H.: Doeltreffend zoeken in volledige teksten : 2. full-text retrieval bij de HavenInformatieBank (1998) 0.01
    0.006503041 = product of:
      0.039018244 = sum of:
        0.039018244 = product of:
          0.07803649 = sum of:
            0.07803649 = weight(_text_:thesaurus in 2368) [ClassicSimilarity], result of:
              0.07803649 = score(doc=2368,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.3573933 = fieldWeight in 2368, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2368)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    At Rotterdam Port Authority an information database has been created with approx. 100.000 full text documents online. Topic software has been used to identify word groups and refine search strategies to optimize precision and recall. The software guides users from selected terms to other relevant word combinations. Although the system would benefit from further refinement, users are generally satisfied. The database includes a number of foreign language documents but lacks a thesaurus of foreign terms
  18. Enderle, W.: Neue Wege der bibliothekarischen Informationserschließung : von der Erschließung unselbständiger Literatur über Volltextindizierung bis zu Hypertext- und Expertensystemen (1994) 0.01
    0.0062816245 = product of:
      0.037689745 = sum of:
        0.037689745 = weight(_text_:und in 2035) [ClassicSimilarity], result of:
          0.037689745 = score(doc=2035,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 2035, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2035)
      0.16666667 = coord(1/6)
    
    Abstract
    Die bibliothekarische Informationserschließung war unist bislang durch den OPAC geprägt, der im wesentlichen die Monographien und Zeitschriften einer Bibliothek erschließt. Es werden 2 neue Bereiche skizziert, die in Zukunft ebenfalls Teil der bibliothekarischen Informationserschließung sein können und werden: die Erschließung unselbständiger Literatur und der Einsatz automatisierter 'reference and information services'. Im ersten Fall ist die Entwicklung bereits weit vorangeschritten, Verbundsysteme und Library Suppliers bieten bereits Inhaltsdaten von Zeitschriften als Fremdleistung an. Im zweiten Fall ist die Entwicklung, vor allem im angloamerikanischen Raum, noch - trotz zahlreicher Projekte - in den Anfängen. Der Einsatz wissensbasierter Systeme in diesem Bereich macht die Aufgaben hier besonders komplex, biete zugleich aber hanz neue Lösungsmöglichkeiten an, wie am Beispiel einiger amerikanischer Projekte dokumentiert wird. Wesentlich ist, daß Informationserschließungssysteme, wie sie ansatzweise im Internet bereits eingesetzt werden, den gesamten bereich elektronischer wie herkömmlicher Information umfassen, um einen allgemeinen und umfassenden Einstieg für den Informationssuchenden zu bieten
  19. Huschens, C.: Freitextindexierung in der Parlamentsdokumentation (1986) 0.01
    0.0059837457 = product of:
      0.035902474 = sum of:
        0.035902474 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.035902474 = score(doc=503,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=503)
      0.16666667 = coord(1/6)
    
    Source
    Deutscher Dokumentartag 1986, Freiburg, 8.-10.10.1986: Bedarfsorientierte Fachinformation: Methoden und Techniken am Arbeitsplatz. Bearb.: H. Strohl-Goebel
  20. Kanngießer, V.: Entwicklung eines Volltext-Informationssystems unter Einsatz von SQL* TextRetrieval der Firma Oracle Deutschland GmbH (1992) 0.01
    0.0059837457 = product of:
      0.035902474 = sum of:
        0.035902474 = weight(_text_:und in 2764) [ClassicSimilarity], result of:
          0.035902474 = score(doc=2764,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 2764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2764)
      0.16666667 = coord(1/6)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation