Search (64 results, page 1 of 4)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.11
    0.1131138 = product of:
      0.2827845 = sum of:
        0.24987002 = weight(_text_:crawler in 867) [ClassicSimilarity], result of:
          0.24987002 = score(doc=867,freq=4.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.6338569 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.032914463 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
          0.032914463 = score(doc=867,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.19345059 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
      0.4 = coord(2/5)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  2. Reinke, S.; Schmidt, M.: Einmal suchen, alles finden : 7 Meta-Suchmaschinen im Test (2001) 0.07
    0.07067391 = product of:
      0.35336956 = sum of:
        0.35336956 = weight(_text_:crawler in 176) [ClassicSimilarity], result of:
          0.35336956 = score(doc=176,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.89640903 = fieldWeight in 176, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.078125 = fieldNorm(doc=176)
      0.2 = coord(1/5)
    
    Abstract
    Von MetaSuchmaschinen oder Metacrawlern erwarten viele Datensucher Wunder. Die Crawler durchstöbern Kataloge von Suchmaschinen, fassen Ergebnisse zusammen, gleichen sie ab und präsentieren sie. CHIP hat sieben deutschsprachige, kostenlose Metacrawler getestet
  3. Reibold, H.: Findigkeit gefragt (2000) 0.06
    0.05653913 = product of:
      0.28269565 = sum of:
        0.28269565 = weight(_text_:crawler in 4283) [ClassicSimilarity], result of:
          0.28269565 = score(doc=4283,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.7171272 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0625 = fieldNorm(doc=4283)
      0.2 = coord(1/5)
    
    Object
    Crawler
  4. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches (2000) 0.05
    0.049471736 = product of:
      0.24735868 = sum of:
        0.24735868 = weight(_text_:crawler in 5772) [ClassicSimilarity], result of:
          0.24735868 = score(doc=5772,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.6274863 = fieldWeight in 5772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5772)
      0.2 = coord(1/5)
    
    Object
    Web-Crawler
  5. Kaiser, C.: Mit "Neomo" und "Turbo 10" neue Initiativen auf dem deutschen und britischen Suchmarkt (2005) 0.04
    0.042404346 = product of:
      0.21202172 = sum of:
        0.21202172 = weight(_text_:crawler in 3434) [ClassicSimilarity], result of:
          0.21202172 = score(doc=3434,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.5378454 = fieldWeight in 3434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.046875 = fieldNorm(doc=3434)
      0.2 = coord(1/5)
    
    Abstract
    "Search Engine Strategies Conference" (SES) in München mit 160 Teilnehmern. Die Vortragenden waren im Regelfall sehr kompetent, und die Zuhörerschaft schien gut vorinformiert zu sein. Trotzdem wäre bei manchen Vorträgen mehr Inhalt und Fachkompetenz wünschenswert gewesen - wie beispielsweise beim Vortrag von Google. Die geplante Session "Treffen Sie die Crawler" fand leider nicht statt. Mittlerweile gibt es andere interessante Konferenzen in Europas, die sich mit Suchmaschinenmarketing und -optimierung befassten, wie das "Suchmaschinenmarketingseminar" in Heidelberg im November 2004, das wenig besucht war, aber hochinteressante Fachvorträge und Diskussionsforen bot. Die SES gilt bisher als das wichtigste Branchenereignis für Suchmaschinenmarketing und -optimierung weltweit. Hier treffen sich Websiteanbieter, Suchmaschinenmarketingagenturen und Suchmaschinenbetreiber. Außer allgemeinen Einblicken in die aktuelle Entwicklung der Branche bietet die SES Informationen zu Themen wie dynamische Websites, Websitestruktur, Verlinkung und Keywordanalysen. Neue Themen waren "lokale Suche", die aktuelle Entwicklung im deutschen Suchmarkt und markenrechtliche Probleme. Websiteanbieter konnten in den "Website-Klinik"-Sessions ihre Sites von Experten prüfen lassen und praktische Tipps zur Verbesserung des Rankings einholen.
  6. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.04
    0.035336956 = product of:
      0.17668478 = sum of:
        0.17668478 = weight(_text_:crawler in 1526) [ClassicSimilarity], result of:
          0.17668478 = score(doc=1526,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.44820452 = fieldWeight in 1526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1526)
      0.2 = coord(1/5)
    
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  7. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.03
    0.03353588 = product of:
      0.0838397 = sum of:
        0.07067391 = weight(_text_:crawler in 3684) [ClassicSimilarity], result of:
          0.07067391 = score(doc=3684,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.1792818 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.013165785 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
          0.013165785 = score(doc=3684,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.07738023 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
      0.4 = coord(2/5)
    
    Abstract
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Date
    22. 6.2005 9:52:00
  8. Hentschel, A.; Schmidt, M.: Google: erste Krise (2008) 0.02
    0.021202173 = product of:
      0.10601086 = sum of:
        0.10601086 = weight(_text_:crawler in 1812) [ClassicSimilarity], result of:
          0.10601086 = score(doc=1812,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.2689227 = fieldWeight in 1812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1812)
      0.2 = coord(1/5)
    
    Content
    "Am 7. September feiert die Google-Seite ihren zehnten Geburtstag. Die Bilanz dieser Dekade ist durchaus überwältigend. Gerade bescheinigte das Marktforschungs-Unternehmen comScore Google einen Anteil von 61,6 Prozent am weltweiten Suchmaschinen-Markt. Der Gigant aus Mountain View machte letztes Jahr 16,5 Milliarden US-Dollar Umsatz und erwirtschaftete 4,2 Milliarden US-Dollar Gewinn - gegenüber 2006 ein Plus von bemerkenswerten 30 Prozent. Viele Gründe zum Feiern. Eigentlich. Doch die Stimmung beim weltgrößten Suchmaschinen-Betreiber ist getrübt. Die gleichen Marktforscher sagen Google nämlich ein Ende der glorreichen Zeiten voraus. Die Gründe: Die User verstecken sich vor Google, klicken seltener auf Werbebanner und achten stärker denn je auf ihre Privatsphäre im Internet. In den USA schrumpfte das Anzeigengeschäft allein von Dezember 2007 bis Januar 2008 um sieben Prozent. Der Aktienkurs der Suchmaschine brach ob dieser Zurückhaltung ein, seit letztem November verlor Google 40 Prozent seines Börsenwertes - immerhin 80 Milliarden US-Dollar. Das rückläufige Geschäft verdeutlicht ein gravierendes Problem. Es wird für Google immer schwerer, Werbung dort einzublenden, wo die Webnutzer sind. Die Platzierung funktioniert vereinfacht so: Um seinen Webseitenindex aktuell zu halten, schickt Google Crawler durch das Web. Sie erfassen für das Indizierungs-Programm Google-bot die Inhalte der Webseiten - anhand häufig auftauchender Begriffe sowie von Content- und Title-Tags. So weiß Google, auf welchen Seiten welche Inhalte stehen und kann passende Werbung schalten. In Zeiten dröger HTML-Seiten war das mehr als ausreichend. Doch das Web hat sich schneller geändert als Google seinen Googlebot. Der nämlich kann nicht alle Seitenformate erfassen. Die Inhalte von Flash-Dateien und dynamischen Webseiten etwa bleiben außen vor, zielgenaue Werbung lässt sich hier nicht schalten. Dummerweise boomen ausgerechnet diese Formate im populären "Web 2.0". Eigentlich ein rein technisches Problem, für das die Suchmaschine noch keine Lösung hat.
  9. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.02
    0.021065256 = product of:
      0.10532628 = sum of:
        0.10532628 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
          0.10532628 = score(doc=4686,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.61904186 = fieldWeight in 4686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.125 = fieldNorm(doc=4686)
      0.2 = coord(1/5)
    
    Date
    27.11.2005 18:04:22
  10. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.02
    0.017668478 = product of:
      0.08834239 = sum of:
        0.08834239 = weight(_text_:crawler in 1721) [ClassicSimilarity], result of:
          0.08834239 = score(doc=1721,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.22410226 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.2 = coord(1/5)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
  11. Hartknopf, A.: ¬Die Kugel für Google? : Alternative Suchwerkzeuge (2006) 0.02
    0.017668478 = product of:
      0.08834239 = sum of:
        0.08834239 = weight(_text_:crawler in 4733) [ClassicSimilarity], result of:
          0.08834239 = score(doc=4733,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.22410226 = fieldWeight in 4733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4733)
      0.2 = coord(1/5)
    
    Content
    Das geht tief Ein kleiner Mythos wird häufig aus dem so genannten "deep web" gemacht. Gemeint sind damit all jene Inhalte, die Suchmaschinen niemals listen, weil ihre Crawler sie nicht erreichen - hauptsächlich aus Datenbanken dynamisch generierte Contents und damit eine riesige Menge von Seiten. Bis zu 500-mal größer soll das "unsichtbare" Web sein. Der Suchdienst Complete Planet will beim Entdecken des Verborgenen helfen. Er listet derzeit 70.000 Datenbanken in über 40 Kategorien von "Agriculture" bis "Weather". Zu jedem Angebot gibt es eine englische Zusammenfassung. Da es jedoch praktisch kaum machbar ist, die teilweise über 100 Datenbanken zu einem Thema auf diese Weise abzuarbeiten, lassen sich die Beschreibungstexte nach Stichworten durchsuchen. Diese Suche lässt sich auf die gesamte Complete-Planet-Datenbank ausweiten oder auf eine Kategorie beschränken. Wie häufig sind auch hier diejenigen im Vorteil, die ihre Infos aus dem englischen Sprachraum beziehen können. Turbo10 ist ein Suchdienst, der nach eigenen Angaben 804 "deep net engines" abfragt, über die zunächst wenig Genaues zu erfahren ist. Die sparsam aufgemachte Site schmeißt auch sonst nicht gerade mit Selbstauskünften um sich. Dafür bietet sie ein sehr übersichtlich organisiertes Ergebnisfenster. Die Ergebnisse werden nach "Clustern" sortiert: Zum Suchbegriff "dvd brenner" etwa lieferte Turbo10 u. a. die Kategorien "hardware", "shops" oder "tests". Auch die abgefragten Suchdienste lassen sich hier mit der Zahl ihrer Treffer auflisten. Interessant ist die Möglichkeit, sich aus der Liste dervon Turbo10 genutzten Suchmaschinen eine eigene Kollektion zusammenzustellen. Dazu muss der Benutzer allerdings seine E-Mail-Adresse herausrücken. Für die tiefgehenden Anfragen wird außerdem einiges an kostenpflichtiger Software angeboten, die das Suchen erleichtern soll.
  12. Hähle, S.: Verborgenes Entdecken (2005) 0.02
    0.017668478 = product of:
      0.08834239 = sum of:
        0.08834239 = weight(_text_:crawler in 34) [ClassicSimilarity], result of:
          0.08834239 = score(doc=34,freq=2.0), product of:
            0.39420572 = queryWeight, product of:
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.048587184 = queryNorm
            0.22410226 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.113368 = idf(docFreq=35, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.2 = coord(1/5)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  13. Eggeling, T.; Kroschel, A.: Alles finden im Web (2000) 0.01
    0.013165786 = product of:
      0.06582893 = sum of:
        0.06582893 = weight(_text_:22 in 4884) [ClassicSimilarity], result of:
          0.06582893 = score(doc=4884,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.38690117 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=4884)
      0.2 = coord(1/5)
    
    Date
    9. 7.2000 14:06:22
  14. Poulakos, I.: ¬"Die Leute suchen immer dasselbe" (2001) 0.01
    0.013165786 = product of:
      0.06582893 = sum of:
        0.06582893 = weight(_text_:22 in 5541) [ClassicSimilarity], result of:
          0.06582893 = score(doc=5541,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.38690117 = fieldWeight in 5541, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=5541)
      0.2 = coord(1/5)
    
    Date
    18. 1.1997 12:15:22
  15. Sauer, D.: Alles schneller finden (2001) 0.01
    0.013165786 = product of:
      0.06582893 = sum of:
        0.06582893 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
          0.06582893 = score(doc=6835,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.38690117 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
      0.2 = coord(1/5)
    
    Date
    11.11.2001 17:25:22
  16. Breyer, K.: Kommerz statt Information (2002) 0.01
    0.013165786 = product of:
      0.06582893 = sum of:
        0.06582893 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
          0.06582893 = score(doc=568,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.38690117 = fieldWeight in 568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.078125 = fieldNorm(doc=568)
      0.2 = coord(1/5)
    
    Date
    9. 5.2002 21:21:22
  17. Hülsmann, M.: Profi-Suche : Suchdienste richtig nutzen (2001) 0.01
    0.010532628 = product of:
      0.05266314 = sum of:
        0.05266314 = weight(_text_:22 in 6422) [ClassicSimilarity], result of:
          0.05266314 = score(doc=6422,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.30952093 = fieldWeight in 6422, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=6422)
      0.2 = coord(1/5)
    
    Date
    11. 8.2001 14:19:22
  18. Schüler, P.: Wertes Wissen : Knowledge Management vermeidet Datenfriedhöfe (2001) 0.01
    0.010532628 = product of:
      0.05266314 = sum of:
        0.05266314 = weight(_text_:22 in 6815) [ClassicSimilarity], result of:
          0.05266314 = score(doc=6815,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.30952093 = fieldWeight in 6815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=6815)
      0.2 = coord(1/5)
    
    Date
    8.11.2001 19:58:22
  19. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.01
    0.010532628 = product of:
      0.05266314 = sum of:
        0.05266314 = weight(_text_:22 in 261) [ClassicSimilarity], result of:
          0.05266314 = score(doc=261,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.30952093 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
      0.2 = coord(1/5)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
  20. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.010532628 = product of:
      0.05266314 = sum of:
        0.05266314 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
          0.05266314 = score(doc=997,freq=2.0), product of:
            0.17014404 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.048587184 = queryNorm
            0.30952093 = fieldWeight in 997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=997)
      0.2 = coord(1/5)
    
    Date
    29. 9.2002 18:49:22