Search (4 results, page 1 of 1)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Volltextretrieval"
  1. Rosemann, L.: ¬Die Volltextabfrage und das Alleinstellungsmerkmal des physischen Buches (2006) 0.03
    0.025787087 = product of:
      0.051574174 = sum of:
        0.043592654 = weight(_text_:digitale in 5142) [ClassicSimilarity], result of:
          0.043592654 = score(doc=5142,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.24181628 = fieldWeight in 5142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
        0.007981519 = weight(_text_:information in 5142) [ClassicSimilarity], result of:
          0.007981519 = score(doc=5142,freq=10.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.1301088 = fieldWeight in 5142, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5142)
      0.5 = coord(2/4)
    
    Content
    "Mit Google Print bzw. mittlerweile Google Book Search und dem Projekt zur Übernahme eines brancheneigenen Portals zur Pflege und Bereitstellung digitaler Daten aus Büchern namens "Volltextsuche online" initiiert durch den Börsenverein des Deutschen Buchhandels tritt ein Thema auf den Plan, das im deutschen Sprachraum lange vernachlässigt wurde: allgemein gesprochen, die Notwendigkeit der Texterschließung durch Indexierung - sei sie gedruckt in Form von Registern im Anhang von Sach- und wissenschaftlichen Büchern oder ungedruckt in Form sog. Volltextabfragen per Suchmaske am Computer. Angesichts der exponentiell wachsenden Menge an Wissen ist es gut, wenn hierzu Überlegungen angestellt werden und damit die Chance besteht, neben der wirtschaftlichen auch über die wissenstheoretische Dimension dieser Dienste nachzudenken. Zweifellos wird die Bedeutung der Indexierung von Fließtext aus wissenstheoretischer Sicht in Zukunft noch weiter wachsen und bedeutet im Falle einer Online-Plattform (wenn sie denn in naher Zukunft eine hinreichend große Menge an Büchern in ihrem Datenbestand aufweisen wird) die Erfüllung eines Traumes für die wissenschaftliche Arbeit: Es ist fantastisch, in Millisekunden das Vorhandensein von Personen, Termen, Phrasen und Wortkomposita zu ermitteln, um die Ein- bzw. Nichteinschlägigkeit eines Buches und - mehr noch -vieler Bücher für die eigene Arbeit eindeutig beantworten zu können. Es ist fantastisch, im Trefferfall die gesuchte Information sogleich auf dem Monitor exzerpieren zu können oder sich auch bei ausbleibenden Treffern das Durcharbeiten eines ganzen Buches, vielleicht sogar einer halben Bibliothek ersparen zu können. Dabei ist das letztere Resultat mindestens eine genauso wichtige Information wie die erste, denn auch sie wird- man darf fast sagen, so gut wie immer - zu einer unglaublichen Ersparnis an Zeit verhelfen; hier bedeutet allein schon die Verringerung der Datenmenge einen Zuwachs an Wissen unter minimalem Zeitaufwand. Angesichts dieser Diagnose ist die These zu wagen, die digitale Revolution beginnt erst wirklich bei der Nutzung der Volltexte selbst als Datenquelle zur Wissensabfrage.
    . . . Ich plädiere hier aus den oben genannten wissenstheoretischen Gründen nicht nur für die Aufrechterhaltung eines Mindestmaßes an Registern und Indexen im Anhang von physischen Büchern, sondern sogar für deren Ausbau, deren standardmäßige Zugabe bei Sach- und wissenschaftlichen Büchern gerade angesichts der Volltextnutzung durch Online-Abfragen. Warum? Hierzu sechs Argumente: 1. Wie oben bereits angerissen, lehrt die Erfahrung bei CD-ROM-Zugaben zu opulenten Werken, dass Parallelmedien mit Parallelinhalten von den Nutzern nicht wirklich angenommen werden; es ist umständlich, zur Auffindung bestimmter Textstellen den Computer befragen zu müssen und die Fundstellen dann zwischen zwei Buchdeckeln nachzuschlagen. 2. Über frei wählbare Suchbegriffe seitens des Nutzers ist noch keine Qualität der Suchergebnisse garantiert. Erst das Einrechnen entsprechender Verweisungsbegriffe und Synonyme in die Suchabfrage führt zu Qualität des Ergebnisses. Die scheinbar eingesparten Kosten einer einmaligen bzw. abonnementartigen Investition in eine Online-Verfügbarkeit der Buchinhalte vonseiten der Verlage werden dann über die Hintertür doch wieder fällig, wenn sich nämlich herausstellt, dass Nutzer bei der von ihnen gesuchten Information nicht fündig werden, weil sie unter dem "falschen", d.h. entweder ihnen nicht bekannten oder einem ihnen gerade nicht präsenten Schlagwort gesucht haben. Die Online-Suchabfrage, die auf den ersten Blick höchst nutzerfreundlich erscheint, da eine ungeheure Menge an Titeln die Abfrage umfasst, erweist sich womöglich als wenig brauchbar, wenn sich die Trefferqualität aus den genannten Gründen als beschränkt herausstellt. 3. Nur bei entsprechenden Restriktionen des Zugangs bzw. der präsentierten Textausschnitte werden die Verlage es gewährleistet sehen, dass die Nutzerin, der Nutzer nicht vom Kauf des physischen Buches Abstand nehmen. Nur wenn die Nutzer wissen, dass ihnen gerade jene Informationen am Bildschirm vorenthalten werden, die sie im zu erwerbenden Buch mit Gewissheit finden werden, werden sie das Buch noch erwerben wollen. Wer auf die Schnelle nur ein Kochrezept aus einem teuer bebilderten Kochbuch der Oberklasse abrufen kann, wird das teure Kochbuch eben nicht mehr kaufen. Analog stellt sich die Frage, ob nicht aus diesem Grunde auch Bibliotheken erwägen werden, angesichts der elektronischen Präsenz teuerer physischer Bücher auf den Erwerb der Letzteren zu verzichten, wohl wissend, dass den Wissenschaftlern im Zweifel einige Mausklicks genügen, um die gewünschte Begriffsrecherche erschöpfend beantwortet zu finden.
    4. Vermutlich wird sich aufgrund der genannten Gründe der Buchservice Volltextsuche als heterogen darstellen: Einige Verlage werden gar nicht mitspielen, andere werden ein Buch im Vollzugriff, ein anderes nur zum Teil, ein drittes nur als Metainformation usw. indizieren lassen. Dies wird letztlich ebenfalls die Trefferqualität schmälern, da der Nutzer dann wiederum wissen muss, genau welche Informationen und Texte ihm bei seiner Suche vorenthalten werden. Das gedruckte Sachbuch wird gegen seinen eigenen digitalen Klon ein Alleinstellungsmerkmal brauchen, um weiterhin attraktiv zu sein. 5. Ein solches Alleinstellungsmerkmal würde m.E. maßgeblich durch die Erstellung von gedruckten Registern bereits in der Druckausgabe erreicht werden. Damit würde die Druckausgabe tatsächlich an Wert gewinnen und der Buchkäufer erhielte einen echten Mehrwert. Zum einen spiegelt sich bereits in der Erstellung konventioneller gedruckter Register die zweite digitale Revolution wider: Moderne Registererstellung basiert heutzutage ebenfalls auf der digitalen Verwertung des Volltextes. Zum anderen erfordert das "Registermachen" zugleich die Erbringung jener o.g. sachdienlichen Mehrinformationen wie Verweisungsbegriffe, vernünftige Klassifizierungen, nicht-redundante Begriffsauswahl etc., die nur begrenzt automatisierbar sind und Fachwissen erfordern. Erst diese beiden Komponenten lassen die Indexierung schlussendlich zu einer hochwertigen Aufbereitung sequentieller Information werden. 6. Genau diese Mehr- und Metainformationen, die die vorausgegangene Erstellung eines Print-Vollregisters geliefert hat, lassen sich dann in den Suchalgorithmus der Online-Suche zur Qualitätssteigerung der Treffer einrechnen."
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.4, S.217-218
  2. Moukdad, H.; Large, A.: Information retrieval from full-text arabic databases : can search engines designed for English do the job? (2001) 0.00
    0.0035694437 = product of:
      0.014277775 = sum of:
        0.014277775 = weight(_text_:information in 6142) [ClassicSimilarity], result of:
          0.014277775 = score(doc=6142,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.23274569 = fieldWeight in 6142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=6142)
      0.25 = coord(1/4)
    
  3. Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001) 0.00
    0.002379629 = product of:
      0.009518516 = sum of:
        0.009518516 = weight(_text_:information in 5937) [ClassicSimilarity], result of:
          0.009518516 = score(doc=5937,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.1551638 = fieldWeight in 5937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
      0.25 = coord(1/4)
    
  4. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    0.0020608194 = product of:
      0.008243278 = sum of:
        0.008243278 = weight(_text_:information in 548) [ClassicSimilarity], result of:
          0.008243278 = score(doc=548,freq=6.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.1343758 = fieldWeight in 548, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
      0.25 = coord(1/4)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    Enthält die Kapitel: 2: Wissensrepräsentation 2.1 Deklarative Wissensrepräsentation 2.2 Klassifikationen des BMM 2.3 Thesauri und Ontologien: existierende kommerzielle Software 2.4 Erstellung eines Thesaurus im Rahmen des LeWi-Projektes 3: Analysekomponenten 3.1 Sprachliche Phänomene in der maschinellen Textanalyse 3.2 Analysekomponenten: Lösungen und Forschungsansätze 3.3 Die Analysekomponenten im LeWi-Projekt 4: Information Retrieval 4.1 Grundlagen des Information Retrieval 4.2 Automatische Indexierungsmethoden und -verfahren 4.3 Automatische Indexierung des BMM im Rahmen des LeWi-Projektes 4.4 Suchstrategien und Suchablauf im LeWi-Kontext