Search (108 results, page 1 of 6)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  1. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.03
    0.02524287 = product of:
      0.07572861 = sum of:
        0.07572861 = sum of:
          0.050290924 = weight(_text_:datenbanken in 2403) [ClassicSimilarity], result of:
            0.050290924 = score(doc=2403,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.21760356 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.025437687 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.025437687 = score(doc=2403,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.33333334 = coord(1/3)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  2. Karzauninkat, S.: Zielfahndung : Suchmaschinen, Kataloge, Spezialisten und kommerzielle Datenbanken richtig einsetzen (1999) 0.02
    0.020954553 = product of:
      0.062863655 = sum of:
        0.062863655 = product of:
          0.12572731 = sum of:
            0.12572731 = weight(_text_:datenbanken in 4135) [ClassicSimilarity], result of:
              0.12572731 = score(doc=4135,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5440089 = fieldWeight in 4135, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4135)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  3. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.02
    0.018742321 = product of:
      0.05622696 = sum of:
        0.05622696 = product of:
          0.11245392 = sum of:
            0.11245392 = weight(_text_:datenbanken in 4093) [ClassicSimilarity], result of:
              0.11245392 = score(doc=4093,freq=10.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.48657638 = fieldWeight in 4093, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
  4. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.02
    0.018147174 = product of:
      0.05444152 = sum of:
        0.05444152 = product of:
          0.10888304 = sum of:
            0.10888304 = weight(_text_:datenbanken in 1888) [ClassicSimilarity], result of:
              0.10888304 = score(doc=1888,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.47112554 = fieldWeight in 1888, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1888)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  5. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.10792297 = score(doc=3227,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  6. Höfer, W.: Detektive im Web (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4007,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 20:22:06
  7. Rensman, J.: Blick ins Getriebe (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4009,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 21:22:59
  8. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.02
    0.016958458 = product of:
      0.050875373 = sum of:
        0.050875373 = product of:
          0.10175075 = sum of:
            0.10175075 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.10175075 = score(doc=4686,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    27.11.2005 18:04:22
  9. Batscheider, M.: infocore-Metasuchplattform nach Maß (2004) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 2994) [ClassicSimilarity], result of:
              0.10058185 = score(doc=2994,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 2994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2994)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Für Rechercheprofis stellt sich nicht die Frage, ob sie relevante Informationen finden, sondern mit welchem Zeitaufwand. Die wertvollsten Datenschätze liegen meist verborgen in Online-Datenbanken-sprich im Deep Web. Diese können frei zugänglich, registrierungs- oder kostenpfiichtig sein. Damit sind insbesondere Informationsspezialisten in Unternehmen gezwungen, täglich redundante komplexe Rechercheprozesse von Hand auszuführen. Dieser Beitrag erläutert, wie infocore "Deep Web"-Quellen einfach einbindet sowie den Rechercheprozess bis zur Distribution der Suchergebnisse automatisiert optimiert und somit kosteneffizient gestaltet. Besondere Berücksichtigung findet hierbei die Filterstrategie, mit der infocore die Trefferredundanz reduziert und Suchergebnisse thematisch sortiert.
  10. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.089031905 = score(doc=4224,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    3. 5.1997 8:44:22
  11. Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009) 0.01
    0.014517739 = product of:
      0.04355322 = sum of:
        0.04355322 = product of:
          0.08710644 = sum of:
            0.08710644 = weight(_text_:datenbanken in 1160) [ClassicSimilarity], result of:
              0.08710644 = score(doc=1160,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.37690043 = fieldWeight in 1160, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1160)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Plötzlich diese Übersicht. Milliarden von Seiten, in Sekundenbruchteilen durchsucht, als Trefferliste sauber angezeigt, mit der größten Selbstverständlichkeit sortiert nach Rang und Namen. Google bestimmt die Routinen des Alltags und ist dennoch nicht die Suchmaschine schlechthin. Auch außerhalb des World Wide Web gibt es zahllose, technisch hochgerüstete Prozeduren des Suchens. Die gegenwärtige Selbstverständlichkeit der einen Suchmaschine läßt leicht übersehen, daß Suchmaschinen einen Interessenkonflikt induzieren zwischen jenen, die sie einsetzen wollen, und jenen, auf die sie angesetzt werden. Ihr prekärer Status im Spannungsfeld zwischen Übersicht und Überwachung wird verdrängt. Anhand von vier Fallstudien zeigt David Gugerli die Entwicklung der Suchmaschine auf, von den frühen Fernseh-Ratespielen, von Robert Lembkes Unterhaltungsshow »Was bin ich?«, über Eduard Zimmermanns Fahndungssendung »Aktenzeichen XY« und Horst Herolds »Kybernetik der Polizei« bis zu der von Ted Codd ausgehenden Entwicklung der relationalen Datenbank. Während Lembke auf die Feststellung von Normalität ausgerichtet war, suchte Zimmermann die Devianz, Herold die Muster und Codd die allgemeingültige Such- und Abfragesprache für in Form gebrachte Wissensbestände, die man seit Mitte der sechziger Jahre Datenbanken nennt. »Die Geschichte der Suchmaschine ist eine eminent politische. Mit Suchmaschinen lassen sich Hoffnungen auf Fundamentaldemokratisierung und informationelle Emanzipation ebenso verbinden wie Horrorvisionen eines Orwellschen Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt.«
    BK
    54.64 Datenbanken
    Classification
    54.64 Datenbanken
  12. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.012831989 = product of:
      0.038495965 = sum of:
        0.038495965 = product of:
          0.07699193 = sum of:
            0.07699193 = weight(_text_:datenbanken in 1721) [ClassicSimilarity], result of:
              0.07699193 = score(doc=1721,freq=12.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.33313605 = fieldWeight in 1721, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1721)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  13. Auf der Suche nach Suchmaschinen (1996) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 5583) [ClassicSimilarity], result of:
              0.076313056 = score(doc=5583,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 5583, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5583)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Cogito. 12(1996) H.5, S.19-22
  14. Bager, J.: Weniger ist mehr : Internet-Suchmaschinen richtig einsetzen (1998) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 1489) [ClassicSimilarity], result of:
              0.076313056 = score(doc=1489,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 1489, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1489)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    29.12.1998 11:22:00
  15. Lob, S.: Per Mausklick auf die neusten Nachrichten : Internet-Suchmaschinen liefern Presse-Überblicke und stellen persönliche Zeitungen zusammen (1998) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 1622) [ClassicSimilarity], result of:
              0.076313056 = score(doc=1622,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 1622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1622)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    29.12.1998 11:22:25
  16. Hannemann, M.: Online ins Schlaraffenland der Wissenschaft : Literatur-Recherche im Internet ist ein teures Unterfangen ohne Erfolgsgarantie - Doch wer systematisch sucht, gelangt zügig ans Ziel (1999) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 3106) [ClassicSimilarity], result of:
              0.076313056 = score(doc=3106,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 3106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3106)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    3. 5.1997 8:44:22
  17. Suchmaschine für wissenschaftliche Inhalte : Elsevier Science (2001) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 5916) [ClassicSimilarity], result of:
              0.07543638 = score(doc=5916,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 5916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5916)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Elsevier Science hat die eigens für wissenschaftliche Inhalte entwickelte Suchmaschine Scirus nach Abschluss des weltweiten Betatestes gestartet (www.scirus.com). Wissenschaftler haben gegenüber den allgemeinen Suchmaschinen Vorbehalte, weil die Nicht-Berücksichtigung wissenschaftlicher Spezifika "unglaublich beeinträchtigen kann" (Prof. Dr. Franz Guenther, Universität München). Scirus hat bislang 60 Millionen wissenschaftsbezogene Seiten im Internet und die Elsevier Science-Quellen Science Direct, BioMedNet und ChemWeb erfasst und kann auch Seiten im Format PDF oder Postscript lesen. Der Anbieter befindet sich derzeit in Abschlussverhandlungen mit anderen Fachverlagen, um deren Datenbanken in die Suche über Scirus einbeziehen zu können. Science ist auch als Websuchfunktion über ScienceDirect erhältlich; www.sciencedirect.com. Technisch realisiert wurde die Suchmaschine durch den Einsatz von FastSearch, die auch von Reed Elsevier, Dell, Ericsson, Lycos und TIBCO Software eingesetzt wird. Elsevier Science sieht sich als der weltweit größte Anbieter von wissenschaftlichen, technischen und medizinischen Informationen. Den Abonnenten von Science Direct wird derzeit der VolltextZugang zu etwa 1.200 Zeitschriften geboten
  18. Summann, F.; Wolf, S.: BASE-Suchmaschinentechnologie für digitale Bibliotheken (2005) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 3191) [ClassicSimilarity], result of:
              0.07543638 = score(doc=3191,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 3191, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3191)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Allgemeine Suchmaschinen wie Google werden heutzutage immer häufiger auch bei der Recherche nach wissenschaftlichen Informationen eingesetzt. Dabei ist meist nicht klar, dass sie auf diesem Gebiet höchst unvollständig sind. Gleichzeitig setzt man die aus Suchmaschinen gewohnte einfache Bedienung und sehr hohe Performanz inzwischen auch bei speziellen Rechercheinstrumenten für wissenschaftliche Informationen (z.B. Fachdatenbanken) voraus. Auch wenn die Oualität der enthaltenen Ouellen hier um ein Vielfaches höher liegt gestaltet sich die Bedienung einer Fachdatenbank jedoch meist deutlich schwieriger als die einer Suchmaschine. Im Rahmen eines Projekts hat die Universitätsbibliothek Bielefeld mit der "Bielefeld Academic Search Engine" (BASE) eine Suchmaschine entwickelt, die die hohe Relevanz der Ouellen aus Datenbanken mit der Einfachheit der Bedie-nung einer Suchmaschine kombiniert. Der Schwerpunkt liegt eindeutig auf der praktischen Umsetzung. Die allgemeine Vorgehensweise (eingesetzte SuchmaschinenSoftware und -Technologien, Entwicklung des Layouts, Integration von Datenquellen etc.) und die möglichen Einsatzgebiete einer solchen wissenschaftlichen Suchmaschine werden in diesem Artikel beschrieben.
  19. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 389) [ClassicSimilarity], result of:
              0.07543638 = score(doc=389,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 389, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
  20. Talbot, D.: Wolfram Alpha vs. Google (2009) 0.01
    0.012572731 = product of:
      0.03771819 = sum of:
        0.03771819 = product of:
          0.07543638 = sum of:
            0.07543638 = weight(_text_:datenbanken in 2820) [ClassicSimilarity], result of:
              0.07543638 = score(doc=2820,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.32640535 = fieldWeight in 2820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2820)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Kampf ist eröffnet: Als vergangene Woche der britische Physiker Stephen Wolfram erstmals der Öffentlichkeit die neue "Antwortmaschine" Wolfram Alpha[1] vorstellte, kündigte Google einen eigenen neuen Dienst an. Wolfram Alpha greift auf Datenbanken zurück, die von Wolfram Research betrieben werden, und wendet auf ihre Inhalte Algorithmen an, um Antworten auf Fragen zu generieren, die Nutzer stellen. Mit dem vom Wolfram-Team vorab zur Verfügung gestellten Login machte ich die Probe aufs Exempel: Wolfram Alpha vs. Google (in der Standardform). Ich gab jeweils die gleichen Anfragen ein und variierte sie in einigen Fällen, um zu sehen, was passiert. Auf diese Weise wollte ich jenseits der allgemeineren Beschreibungen, die ich bei einem Besuch bei Wolfram Research[2] bekommen hatte, einige reale Ergebnisse produzieren. Und natürlich den Anspruch der neuen Maschine überprüfen: Antworten aus Suchanfragen zu "berechnen". Hier ist das Ergebnis meines Tests. [06.06.2009]

Types

  • a 92
  • m 7
  • el 5
  • p 2
  • x 2
  • r 1
  • More… Less…