Search (101 results, page 1 of 6)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Suchmaschinen"
  • × language_ss:"d"
  1. Summann, F.; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken (2005) 0.03
    0.0343941 = product of:
      0.0687882 = sum of:
        0.061649315 = weight(_text_:digitale in 3191) [ClassicSimilarity], result of:
          0.061649315 = score(doc=3191,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
        0.0071388874 = weight(_text_:information in 3191) [ClassicSimilarity], result of:
          0.0071388874 = score(doc=3191,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.116372846 = fieldWeight in 3191, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3191)
      0.5 = coord(2/4)
    
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.51-57
  2. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.02
    0.023581048 = product of:
      0.047162097 = sum of:
        0.043592654 = weight(_text_:digitale in 4318) [ClassicSimilarity], result of:
          0.043592654 = score(doc=4318,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.24181628 = fieldWeight in 4318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
        0.0035694437 = weight(_text_:information in 4318) [ClassicSimilarity], result of:
          0.0035694437 = score(doc=4318,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.058186423 = fieldWeight in 4318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4318)
      0.5 = coord(2/4)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
  3. Digitale Bibliotheken mit Google (2005) 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 4956) [ClassicSimilarity], result of:
          0.08219909 = score(doc=4956,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 4956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=4956)
      0.25 = coord(1/4)
    
  4. Schlüter, C.: Europa auf dem Rückzug : Googles digitale Bibliothek (2006) 0.01
    0.014530884 = product of:
      0.058123536 = sum of:
        0.058123536 = weight(_text_:digitale in 5983) [ClassicSimilarity], result of:
          0.058123536 = score(doc=5983,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.3224217 = fieldWeight in 5983, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=5983)
      0.25 = coord(1/4)
    
    Content
    "Endlich, der lange erwartete Untergang des Abendlandes ist da. Nach einigen juristischen Scharmützeln und auch technisch bedingten Verzögerungen bietet das US-Internetportal Google nun den kompletten Inhalt von Büchern vor allem aus den Beständen amerikanischer Bibliotheken an. Im Zuge des Google Book Search - in Deutschland Google Buchsuche - genannten Projekts will der weltweit erfolgreichste Suchmaschinenbetreiber Millionen von Büchern ins Netz stellen. Nutzer dieses Angebots bekommen allerdings als Antwort auf ihre Suchanfrage nicht den kompletten Buchtext zu sehen, sondern nur kurze, nicht sonderlich aussagefähige Schnipsel. Doch immerhin, ein Anfang ist gemacht, der große ganze Rest wird kommen, bestimmt. Eine Vorahnung von Ausmaß und Möglichkeiten des Projekts geben die von Google bereits eingescannten Bücher, deren Copyright abgelaufen ist: Sie stehen zum Download als PDF-Datei bereit. Bislang konnten Werke wie Dantes Inferno oder Goethes Faust nur am Bildschirm betrachtet werden, nun lassen sie sich auch herunterladen und ausdrucken. Google hat sich verpflichtet, von den Nutzern für die Suche und das Betrachten der Bücher, die nicht urheberrechtlich geschützt sind, keine Gebühren zu verlangen. Darüber hinaus hat des Unternehmen unlängst mit der Universität von Kalifornien eine Vereinbarung getroffen, wonach in den nächsten sechs Jahren mindestens 2,5 Millionen Bände digitalisiert werden dürfen. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es allerdings nicht nur juristische, besonders das Urheberrecht betreffende Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt? Und eine Alternative, etwa die als GoogleKiller annoncierte Europäische Digitale Bibliothek namens Quaero, ist immer noch nicht in Sicht. Überdies wird hier die Beteiligung privater Unternehmen (Bertelsmann, Siemens...) der befürchteten Kommerzialisierung des Weltwissens kaum Einhalt gebieten. Weshalb wir nicht so sehr den amerikanischen Kulturimperialismus, sondern den Rückzug des Staates aus seiner öffentlichen Verantwortung zu beklagen haben."
  5. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.013189325 = product of:
      0.02637865 = sum of:
        0.020549772 = weight(_text_:digitale in 4871) [ClassicSimilarity], result of:
          0.020549772 = score(doc=4871,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.11399328 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.005828877 = weight(_text_:information in 4871) [ClassicSimilarity], result of:
          0.005828877 = score(doc=4871,freq=12.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.09501803 = fieldWeight in 4871, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
      0.5 = coord(2/4)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
  6. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 1888) [ClassicSimilarity], result of:
          0.051374428 = score(doc=1888,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 1888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1888)
      0.25 = coord(1/4)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  7. Google digitalisiert 15 Millionen Bücher (2005) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 3775) [ClassicSimilarity], result of:
          0.051374428 = score(doc=3775,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 3775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3775)
      0.25 = coord(1/4)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  8. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 5742) [ClassicSimilarity], result of:
          0.051374428 = score(doc=5742,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.25 = coord(1/4)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  9. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.008990525 = product of:
      0.0359621 = sum of:
        0.0359621 = weight(_text_:digitale in 1333) [ClassicSimilarity], result of:
          0.0359621 = score(doc=1333,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.19948824 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
      0.25 = coord(1/4)
    
    Content
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
  10. Digitale Schnüfler (2008) 0.01
    0.008990525 = product of:
      0.0359621 = sum of:
        0.0359621 = weight(_text_:digitale in 2205) [ClassicSimilarity], result of:
          0.0359621 = score(doc=2205,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.19948824 = fieldWeight in 2205, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
      0.25 = coord(1/4)
    
  11. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.0064218035 = product of:
      0.025687214 = sum of:
        0.025687214 = weight(_text_:digitale in 1721) [ClassicSimilarity], result of:
          0.025687214 = score(doc=1721,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.1424916 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.25 = coord(1/4)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
  12. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.01
    0.0064218035 = product of:
      0.025687214 = sum of:
        0.025687214 = weight(_text_:digitale in 1671) [ClassicSimilarity], result of:
          0.025687214 = score(doc=1671,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.1424916 = fieldWeight in 1671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
      0.25 = coord(1/4)
    
    Content
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
  13. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.00
    0.0042066295 = product of:
      0.016826518 = sum of:
        0.016826518 = weight(_text_:information in 1159) [ClassicSimilarity], result of:
          0.016826518 = score(doc=1159,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.27429342 = fieldWeight in 1159, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.25 = coord(1/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  14. Stölzel, A.: Was Google nicht sieht : Das "Invisible Web" (2004) 0.00
    0.004164351 = product of:
      0.016657405 = sum of:
        0.016657405 = weight(_text_:information in 4040) [ClassicSimilarity], result of:
          0.016657405 = score(doc=4040,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.27153665 = fieldWeight in 4040, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=4040)
      0.25 = coord(1/4)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  15. Suchen und Finden im Internet (2007) 0.00
    0.0039907596 = product of:
      0.015963038 = sum of:
        0.015963038 = weight(_text_:information in 484) [ClassicSimilarity], result of:
          0.015963038 = score(doc=484,freq=10.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.2602176 = fieldWeight in 484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet hat die Welt von Information, Kommunikation und Medien nachhaltig verändert. Suchmaschinen spielen dabei eine zentrale Rolle. Sie bilden das Tor zum Meer der elektronisch verfügbaren Informationen, leisten dem Nutzer wertvolle Hilfe beim Auffinden von Inhalten, haben sich zwischenzeitlich zum Kristallisationspunkt für vielfältige ergänzende Informations-, Kommunikations- und Mediendienste entwickelt und schicken sich an, Strukturen und Strategien der beteiligten Branchen umzuwälzen. Dabei ist die dynamische Entwicklung der Such- und Finde-Technologien für das Internet weiterhin in vollem Gange. Der MÜNCHNER KREIS hat vor diesem Hintergrund mit exzellenten Fachleuten aus Wirtschaft und Wissenschaft die Entwicklungen analysiert und die Zukunftsperspektiven diskutiert. das vorliegende Buch enthält die Ergebnisse.
    LCSH
    Business Information Systems
    Information Systems Applications (incl.Internet)
    Subject
    Business Information Systems
    Information Systems Applications (incl.Internet)
  16. Koenemann, J.; Lindner, H.-G.; Thomas, C.: Unternehmensportale : Von Suchmaschinen zum Wissensmanagement (2000) 0.00
    0.003606434 = product of:
      0.014425736 = sum of:
        0.014425736 = weight(_text_:information in 5233) [ClassicSimilarity], result of:
          0.014425736 = score(doc=5233,freq=6.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.23515764 = fieldWeight in 5233, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5233)
      0.25 = coord(1/4)
    
    Abstract
    Aufgabe des Wissensmanagements ist es, den Mitarbeitern im Unternehmen entscheidungs- und handlungsrelevante Informationen bereitzustellen und die Mitarbeiter bei der intelligenten Verarbeitung dieser Informationen zu unterstützen. Ein hierzu genutztes Werkzeug von wachsender Bedeutung sind Unternehmensportale. Wir beschreiben kurz die Entwicklung von Portalen im World Wide Web (WWW), um dann Web-Portale von verschiedenen Arten von Unternehmensportalen abzugrenzen. Wir zeigen erwartete Funktionalitäten auf und stellen ein 5-Schichten Modell einer Gesamtarchitektur für Portale dar, welche die wesentlichen Komponenten umfasst. Im Anschluss werden die Besonderheiten der organisatorischen Realisierung und im Ausblick der Übergang von Portalen zum ,ubiquitous personalized information supply", der überall verfügbaren und individuellen Informationsversorgung behandelt
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.325-334
    Theme
    Information Resources Management
  17. Trkulja, V.: Suche ist überall, Semantic Web setzt sich durch, Renaissance der Taxonomien (2005) 0.00
    0.0035694437 = product of:
      0.014277775 = sum of:
        0.014277775 = weight(_text_:information in 3295) [ClassicSimilarity], result of:
          0.014277775 = score(doc=3295,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.23274569 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=3295)
      0.25 = coord(1/4)
    
    Abstract
    Ein Schwerpunkt der Online Information 2004 bildete das Thema "Search": Wie wird die Suche in 2005 aussehen? Welche Bedeutung haben Taxonomien? Wie verändern sich Suchfunktionen?
  18. Lewandowski, D.: Web Information Retrieval (2005) 0.00
    0.0035694435 = product of:
      0.014277774 = sum of:
        0.014277774 = weight(_text_:information in 4028) [ClassicSimilarity], result of:
          0.014277774 = score(doc=4028,freq=18.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.23274568 = fieldWeight in 4028, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.25 = coord(1/4)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Eine regelmäßige Übersicht neuer US-Patente und US-Patentanmeldungen im Bereich Information Retrieval bietet die News-Seite Resourceshelf (www.resourceshelf.com).
    Content
    Mit einer Tabelle, die eine Gegenüberstellung des WebRetrieval zum 'klassischen' Information Retrieval anbietet
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.5-12
  19. Amon, H.: Optimierung von Webseiten für Suchmaschinen und Kataloge : Empfehlungen zur Optimierung der Web-Seiten der Bibliothek und Dokumentation der Deutschen Gesellschaft für Auswärtige Politik (DGAP) (2004) 0.00
    0.0035694437 = product of:
      0.014277775 = sum of:
        0.014277775 = weight(_text_:information in 4626) [ClassicSimilarity], result of:
          0.014277775 = score(doc=4626,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.23274569 = fieldWeight in 4626, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=4626)
      0.25 = coord(1/4)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  20. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.0033123035 = product of:
      0.013249214 = sum of:
        0.013249214 = weight(_text_:information in 3635) [ClassicSimilarity], result of:
          0.013249214 = score(doc=3635,freq=62.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.21597885 = fieldWeight in 3635, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
      0.25 = coord(1/4)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "

Types

  • a 83
  • m 10
  • x 5
  • el 4
  • s 2
  • More… Less…