Search (95 results, page 1 of 5)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Breyer, K.: Kommerz statt Information (2002) 0.10
    0.09889354 = product of:
      0.19778708 = sum of:
        0.19778708 = sum of:
          0.12832318 = weight(_text_:daten in 568) [ClassicSimilarity], result of:
            0.12832318 = score(doc=568,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.52586347 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
          0.0694639 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
            0.0694639 = score(doc=568,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.38690117 = fieldWeight in 568, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=568)
      0.5 = coord(1/2)
    
    Abstract
    Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
    Date
    9. 5.2002 21:21:22
  2. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.07
    0.06522205 = product of:
      0.1304441 = sum of:
        0.1304441 = sum of:
          0.10265854 = weight(_text_:daten in 2403) [ClassicSimilarity], result of:
            0.10265854 = score(doc=2403,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 2403, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.027785558 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.027785558 = score(doc=2403,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.5 = coord(1/2)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  3. Beuth, P.: ¬Die Jagd nach Nutzer-Profilen (2009) 0.05
    0.05346049 = product of:
      0.10692098 = sum of:
        0.10692098 = sum of:
          0.08608181 = weight(_text_:daten in 3033) [ClassicSimilarity], result of:
            0.08608181 = score(doc=3033,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.35275996 = fieldWeight in 3033, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3033)
          0.020839168 = weight(_text_:22 in 3033) [ClassicSimilarity], result of:
            0.020839168 = score(doc=3033,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 3033, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3033)
      0.5 = coord(1/2)
    
    Abstract
    Microsoft und Yahoo greifen Googles Vorherrschaft in der Online-Werbung an. Wer auf ihre Angebote eingeht, gibt die Kontrolle über seine Daten auf - und damit ein Grundrecht.
    Content
    "Zehn Jahre sind eine Ewigkeit in einem Geschäft, das es erst seit neun Jahren gibt. Und doch haben Yahoo und Microsoft eine Kooperation für diese Ewigkeit verabredet. Der Deal ist ein Zuchtprogramm. Gezüchtet werden soll der Internetnutzer der Zukunft, und das braucht Zeit. Dieser künftige Internetnutzer soll vor allem eins: Geld bringen. Geld von anderen Firmen in die Taschen vom Yahoo und Microsoft. Wie das geht, wissen beide Unternehmen seit dem Jahr 2000, als Google die Vermarktung von Online-Anzeigen revolutionierte. Die Idee, dem Nutzer nur solche Werbung anzuzeigen, die zu seinen Suchbegriffen passt, ist bis heute der Ausgangspunkt von Googles astronomischen Gewinnen und gilt auch für die Zukunft als größte Geldquelle im Netz. Voraussetzung ist, dass die Werbung möglichst präzise an jedne einzelnen Benutzer angepasst wird, damit die Preise für Anzeigen nicht abstürzen. Google sammelt dafür auch Daten über seine populären Dienste Youtube oder Blogger.com. Yahoo tut das gleiche, etwa mit seiner Fotocommunity Flickr. In diesem Zusammenhang ergibt die langfristige Partnerschaft von Yahoo und Microsoft einen Sinn. Der Softwareriese hat viel Geld in die Entwicklung seiner neuen Suchmaschine Bing investiert und wird dies auch in Zukunft tun. Yahoo spart sich diese Ausgaben und konzentriert sich auf sein neues Profil als Anbieter von Online-Inhalten und -Diensten.
    So entstehen noch viel mehr Daten, die einem Nutzer zugeordnet werden können. Wie genau diese weiterverarbeitet und an dritte verkauft werden, kann niemand nachvollziehen. Wer sich darauf einlässt, gibt die Hoheit über seine persönlichen Daten ab und damit ein Grundrecht. Aus informationeller Selbstbestimmung wird informationelle Fremdbestimmung. Es ist natürlich das gute Recht eines jeden, dieses Grundrecht in den Wind zu schlagen. Für viele, nicht nur junge Menschen, ist der Austausch von Informationen aller Art selbstverständlich geworden, um Kontakte zu erhalten und soziale und geschäftliche Netze zu knüpfen. Diejenigen, die andere per Internet nicht nur jederzeit über ihren Gemütszustand, sondern sogar über ihren genauen Aufenthaltsort unterrichten, empfinden personalisierte Werbung möglicherweise sogar als angenehm. Wer aber den Gedanken unheimlich findet, dass jede Firma der Welt einen Datensatz erwerben kann, der Auskunft über seine Wünsche, Neigungen, Fantasien, Krankheiten und Beziehungen gibt, der muss den Log-in verweigern, auch wenn alle Welt freudig mitmacht. Der Preis für den Selbst(-Daten)schutz kann durchaus die soziale Ausgrenzung im Netz sein. Der Internetnutzer der Zukunft wird - so lautet der Plan von Google, Yahoo und Microsoft - einer großen Versuchung ausgesetzt sein: Alles aus einer Hand. Oder anders gesagt: Alles in eine Hand."
    Date
    17. 7.1996 9:33:22
  4. Sülzer, T.: Bingen statt Googeln : Die neue Microsoft-Suchmaschine: Deutsche Version ist vorerst nur als "Beta" erreichbar (2009) 0.04
    0.043914545 = product of:
      0.08782909 = sum of:
        0.08782909 = sum of:
          0.06351673 = weight(_text_:daten in 4566) [ClassicSimilarity], result of:
            0.06351673 = score(doc=4566,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26028913 = fieldWeight in 4566, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4566)
          0.024312364 = weight(_text_:22 in 4566) [ClassicSimilarity], result of:
            0.024312364 = score(doc=4566,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 4566, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4566)
      0.5 = coord(1/2)
    
    Content
    Charmant ist natürlich der Gedanke, dass der Software-Goliath Microsoft beim Angriff auf Google in die David-Rolle schlüpft. Zwei mächtige Riesenkonzerne, die um die Vorherrschaft kämpfen - ist das für den Nutzer ein Vorteil? "Es ist sicher nicht schlecht, dass Microsoft ein bisschen Abwechslung ins Internet bringt", sagt Gerald Reischl. Der Wiener Technik-Journalist, der Google vorwirft, per Suchmaschine, Mail-Programm und Browser Unmengen an Nutzerdaten zu sammeln, sieht keine Gefahr darin, dass auch hinter Bing ein fast übermächtiger Konzern steckt. Denn: Microsoft sei nicht so groß im Online-Geschäft tätig. "Google hingegen", so Reischl, "unterhält mehr als 50 Online-Dienste". Microsoft, glaubt er, kann Erfolg haben, "wenn sie erstens eine gute Suchmaschine anbieten und den Nutzern zweitens glaubhaft versichern können, dass sie keine persön- lichen Daten speichern. Der Schutz der Privatsphäre im Internet wird gerade den deutschen Nutzern immer wichtiger." Allerdings werde Bing weniger Google als der bisherigen Nummer zwei, Yahoo, Kunden abjagen. Übrigens: Dieser Tage ist noch eine Suchmaschine online gegangen: Wolfram Alpha (www.wolframalpha.com) ist auf jeden Fall ebenfalls einen Blick wert, vor allem, wenn es um die Suche nach Daten und Zahlen geht."
    Date
    3. 5.1997 8:44:22
  5. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.04
    0.03764104 = product of:
      0.07528208 = sum of:
        0.07528208 = sum of:
          0.054442916 = weight(_text_:daten in 4318) [ClassicSimilarity], result of:
            0.054442916 = score(doc=4318,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22310498 = fieldWeight in 4318, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
          0.020839168 = weight(_text_:22 in 4318) [ClassicSimilarity], result of:
            0.020839168 = score(doc=4318,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 4318, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=4318)
      0.5 = coord(1/2)
    
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
    Date
    3. 5.1997 8:44:22
  6. Behrens, D.: Test: Datei-Newsserver (2004) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 2139) [ClassicSimilarity], result of:
            0.05556557 = score(doc=2139,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 2139, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.017365975 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
            0.017365975 = score(doc=2139,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 2139, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
      0.5 = coord(1/2)
    
    Content
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  7. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 3671) [ClassicSimilarity], result of:
            0.044913113 = score(doc=3671,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.024312364 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
            0.024312364 = score(doc=3671,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
  8. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 5114) [ClassicSimilarity], result of:
            0.044913113 = score(doc=5114,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
          0.024312364 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
            0.024312364 = score(doc=5114,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 5114, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5114)
      0.5 = coord(1/2)
    
    Content
    Amerikanischer Kulturimperialismus also: Es ist kaum verwunderlich, dass sich vor allem in Frankreich Widerstand regt, gibt es hier doch eine Tradition in Sachen Kapitalismus- und Globalisierungskritik. Einer der Protagonisten, Jean-Noel Jeannaney, spricht in seinem Buch "Googles Herausforderung" von einer "Diktatur des angloamerikanischen Kanons". Der Präsident der französischen Nationalbibliothek warnt vor einer Entdemokratisierung des "Weltwissens". Die Alternative liege in der Gründung einer "Europäischen Digitalen Bibliothek". Vor gut einem Jahr verabredete Frankreich mit Deutschland die Entwicklung einer europäischen Suchmaschine. Doch der Google-Killer "Quaero" steht immer noch am Anfang. Überdies wird die Beteiligung privater Unternehmen (Bertelsmann, Siemens, Thomson-Brandt ...) der befürchteten Kommerzialisierung des "Weltwissens" nur bedingt Einhalt gebieten. Was man als Preis für den Rückzug des Staates aus seiner öffentlichen Verantwortung beklagen mag. Um staatlichen Schutz wird es künftig außer bei urheberrechtlichen Fragen vor allem beim Datenschutz gehen. Das Google-Portal verfügt über einen wahren Wissensschatz, was die Bedürfnisse seiner "Besucher" angeht: Jeder Klick auf einer der Google-Sites hinterlässt eine Datenspur, die nicht nur gespeichert wird, sondern auch Dritten angeboten werden könnte. Künftig wird Google über noch mehr Daten verfügen, nachdem das Unternehmen jetzt ein eigenes Bezahlsystem entwickelt hat, das den Einkauf im Netz noch einfacher machen soll. Dass im Februar der chinesische Ableger der Suchmaschine auf Geheiß der Pekinger Regierung unliebsame Webadressen sperrte, war jedenfalls keine vertrauensbildende Maßnahme - Freiheit und Kapitalismus gehören nicht notwendig zusammen. Wobei immer auch die Konzern-Maxime gilt: Besser wir sind da, als wenn es uns nicht gäbe. Zwar kann man, wie unlängst auf einer Tagung der Friedrich-Ebert-Stiftung, die demokratiegefährdenden "digitalen Informationsmächte" beschwören: "Was wird aus dem investigativen Journalismus, wenn Recherchen bei Google beginnen und bei Yahoo aufhören?" Doch langsam: Google ist immer noch die leistungsfähigste Suchmaschine, der Gebrauch von Google ist nach wie vor kostenlos, es gibt alternative, auch nicht-kommerzielle und so genannte Metasuchmaschinen, die verschiedene Suchdienste verwenden... Und sehr wahrscheinlich wird Google wie schon Microsoft dereinst eine ernst zu nehmende Konkurrenz erwachsen. Auf die open-source-community ist, wie das Nutzer-gestützte Online-Lexikon Wikipedia zeigt, wenn schon nicht steter Verlass, so doch in jedem Fall Hoffnung zu setzen."
    Date
    12. 2.1996 22:34:46
  9. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.03
    0.02966806 = product of:
      0.05933612 = sum of:
        0.05933612 = sum of:
          0.038496953 = weight(_text_:daten in 2617) [ClassicSimilarity], result of:
            0.038496953 = score(doc=2617,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.15775904 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
          0.020839168 = weight(_text_:22 in 2617) [ClassicSimilarity], result of:
            0.020839168 = score(doc=2617,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.116070345 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
      0.5 = coord(1/2)
    
    Content
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
    Date
    5. 1.1997 9:39:22
  10. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.11114223 = score(doc=4686,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    27.11.2005 18:04:22
  11. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 1888) [ClassicSimilarity], result of:
              0.11113114 = score(doc=1888,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 1888, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1888)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  12. Behrens, D.: Websites wiederfinden : So kommen Sie an die Daten unerreichbarer Webserver (2003) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 1347) [ClassicSimilarity], result of:
              0.10265854 = score(doc=1347,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 1347, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1347)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.02
    0.022684548 = product of:
      0.045369096 = sum of:
        0.045369096 = product of:
          0.09073819 = sum of:
            0.09073819 = weight(_text_:daten in 386) [ClassicSimilarity], result of:
              0.09073819 = score(doc=386,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.37184164 = fieldWeight in 386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
  14. Finden, ohne zu suchen (2004) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 2979) [ClassicSimilarity], result of:
              0.089826226 = score(doc=2979,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 2979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2979)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    NextLinks schlägt selbst ständig jeweils zehn weitere Webadressen vor, der User muss keinerlei Suchbegriffe eingeben. Möglich wird dies durch die Verwendung von Algorithmen zum Auffinden semantisch ähnlicher Strukturen. Wie bei einer "normalen" Suchmaschine werden zunächst viele Mio. Webseiten ausgewertet. Mittels statistischem Verfahren können daraus Ähnlichkeiten ermittelt und in einer aktuellen Datenbank gespeichert werden. Auf diese Informationsquelle greift NextLinks regelmäßig zurück. Das anonyme Surfverhalten oder persönliche Daten werden dabei nicht gespeichert. Die Software läuft ab Windows 98 und unterstützt alle aktuellen Versionen von Windows-Internet-Explorer, Netscape, Mozilla und Opera. NextLinks ist kostenlos und unter http://wortschatz.unileipziq.de/nextlinks erhältlich.
  15. Google im Kaufrausch (2007) 0.02
    0.022226227 = product of:
      0.044452455 = sum of:
        0.044452455 = product of:
          0.08890491 = sum of:
            0.08890491 = weight(_text_:daten in 2056) [ClassicSimilarity], result of:
              0.08890491 = score(doc=2056,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36432892 = fieldWeight in 2056, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2056)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Es fällt schwer, sich das Internet ohne Google vorzustellen. Denn was die beliebte Suchmaschine nicht findet, das existiert für die meisten Surfer nicht. Doch Google ist weit mehr als eine Suchmaschine. Egal ob E-Mails, Landkarten oder Weblogs, Oberall treffen Surfer auf Produkte des Internet-Riesen. Die Angebote kosten keinen Cent. Trotzdem zahlen die Nutzer dafür - indem sie einen Teil ihrer Privatsphäre Preisgehen. Denn Google sammelt fleißig User-Daten für den Verkauf von personalisierter Werbung. Und jeder neue G-Service verrät dem US-Unternehmen ein neues Detail über seine Fans. Beispiel YouTube: Zum Preis von 1,65 Milliarden Dollar übernahm Google das führende Videoportal und dominiert seitdem mit 60 Prozent den amerikanischen Markt für Kurzfilme im Web. Das Ziel auch hier: personalisierte Werbung in den Clips und detaillierte Informationen Ober die Nutzer - darüber etwa, welche Videoschnipsel sie mögen. Geldquelle: Google braucht User-Profile für die Werbung Gespenstisch muten die "zielgerichteten Anzeigen" beim E-Mail-Service Google Mail an: Wer hier mit Freunden über anstehende Urlaubsreisen mailt, bekommt nur Stunden später Werbung für die passenden Flüge und Hotels. Die Sammelwut von Google erschreckt auch Experten. So warnt Hendrik Speck, Professor für interaktive Online-Medien an der Fachhochschule Kaiserslautern: "Das vermeintlich kostenlose Suchangebot kommt einer Daten-Prostitution gleich, wenn wie bei Google Cookies gespeichert werden, die eine eindeutige Nutzer-Identifizierung bis zum Jahr 2038 vorsehen." Immerhin auf diese Kritik hört die Suchmaschine: Künftig verfallen die Cookies schon nach zwei Jahren.
    Das große Problem ist aber, dass Google gar nicht anders kann als Daten sammeln. Denn die auf einzelne Surfer speziell zugeschnittene Werbung ist fast die einzige Einnahmequelle des Web-Giganten: Im ersten Quartal dieses Jahres erwirtschaftete die Suchmaschine einen Umsatz von 3,66 Milliarden US-Dollar - die Werbe-Abteilung des Konzerns lieferte 98 Prozent davon. Zukunft: Neue 3D-Pläne für Werbung in Landkarten Kein Wunder also, dass Google bei jedem neuen Firmenkauf und jedem neuen Service nach Werbemöglichkeiten sucht. Jüngstes Opfer der Anzeigen-Flut sind RSS-Feeds, die üblicherweise News von Webseiten in einer Art Abo zusammenfassen. Mit der Übernahme der Firma FeedBurner dominiert Google nun auch in diesem Markt. FeedBurner sammelt RSS-Feeds und versieht sie mit Werbung. Genial für Google: Die Lesegewohnheiten der Nutzer sind eine erstklassige Grundlage für noch genauer zugeschnittene personalisierte Werbung. Doch die RSS-Schlagzeilen sind nur eine Kleinigkeit im Vergleich zum nächsten Coup: Derzeit durchkreuzen Autos US-Großstädte und fertigen mit Hilfe mehrerer Kameras Rundum-Aufnahmen an. Die Fotos werden in Google Earth eingebunden. Eigentlich ein netter Service für die User - aber auch eine geniale Werbefläche: Wer demnächst eine Kochshow bei YouTube abruft oder via Mail Freunde zum Essen einlädt, der bekommt bald einen Anzeigen-Link zum nächsten Supermarkt - inklusive 3D-Foto und animiertem Anfahrtsplan.
  16. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.02
    0.019778706 = product of:
      0.039557412 = sum of:
        0.039557412 = sum of:
          0.025664635 = weight(_text_:daten in 3684) [ClassicSimilarity], result of:
            0.025664635 = score(doc=3684,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.105172694 = fieldWeight in 3684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
          0.013892779 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
            0.013892779 = score(doc=3684,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.07738023 = fieldWeight in 3684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
      0.5 = coord(1/2)
    
    Abstract
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Date
    22. 6.2005 9:52:00
  17. Suchmaschinen : Alltheweb versus Google (2002) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 846) [ClassicSimilarity], result of:
              0.076993905 = score(doc=846,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=846)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Mitte Juni hieß es, dass nach eigenen Angaben der Osloer Firma Fast, Search & Transfer ASA deren Suchmaschine AlltheWeb (www.allthe web.com) über mehr Ressourcen als Google verfüge. Sie durchsuche 2 095 568 809 gegenüber 2 073 418 204 WebDokumenten bei Google. Bekanntlich sagt die Menge aber nichts über die Qualität aus - so die Reaktion seitens Google. Wie der Suchmaschinenexperte Klaus Schallhorn (www. kso.co.uk/) meldete, rechnet AlltheWeb dazu anscheinend auch Doppler und Seiten, die nicht mehr existieren. Außerdem, so Schallhorn, ignoriere AlltheWeb die Datei robots. txt, die festlegt, welche Dokumente/Verzeichnisse Suchmaschinen nicht durchsuchen sollen. In einem nach seinen Worten `keineswegs umfassenden' Vergleich zwischen AlltheWeb, AltaVista, Google und Fireball kommt Schallhorn zu dem Schluss, dass Google und AlltheWeb zwar meist führend sind, was die Zahl der Treffer angeht, aber je nach Suchbegriff mal die eine, mal die andere Suchmaschine die Nase vorn hat - ungeachtet der Frage, auf welcher Art Daten die Ergebnisse basieren."
  18. Günzel, C.: Wir sind die Guten! : Das Google-Monopol? (2006) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 4732) [ClassicSimilarity], result of:
              0.076993905 = score(doc=4732,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 4732, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4732)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Mit 30 Milliarden Seiten im Index sortiert Google inzwischen das, was die Welt wissen will. Die Firma will drahtlose InternetZugänge gratis anbieten, treibt die Entwicklung der kostenfreien Bürosoftware Open Office voran und speichert in Zukunft vielleicht Texte und Dokumente im Internet. Die Kalifornier kauften sich in den letzten Jahren mehr als ein Dutzend Technologiefirmen zusammen. Das Usenet-Archiv Dejanews verleibte sich das Unternehmen ebenso ein wie WeblogAnbieter Pyra Labs (Blogger.com), den Bilderdienst Picasa, Satellitenfoto-Anbieter Keyhole oder Dodgeball, eine Social Software für Handys, mit der einsame Mobiltelefonierer Freunde finden (www.internetmarketing-news.de/2005/11/06/die-uebernahmen-von-google). Viele Beobachter des Suchmarktes sehen mit Sorge auf diese um sich greifende Marktmacht, während Google zunehmend Probleme mit dem Image bekommt. Von schmutzigen Dingen ist die Rede: Google soll Kunden ausspionieren, private Daten horten, ein gefährliches Monopol errichten - einzig mit dem Ziel, auf jede Lebenslage perfekt zugeschnittene Werbung zu verkaufen. Sogar Microsoft, der Software-Gigant und Herrscher über die Betriebssysteme von Milliarden Computern, erscheint manchem plötzlich in milderem Licht. Und selbst das hehre Ziel, 15 Millionen Bücher online zugänglich zu machen, fliegt Google um die Ohren: Nicht um das Aufpolieren verstaubten Wissens aus fünf Bibliotheken ginge es, schimpfen die Kritiker. Nein, Google wolle Kontrolle über geistiges Eigentum gewinnen (print.google.de). "Suchmaschinen sind Knotenpunkte der Meinungsbildung, keine neutralen Dienstleister", mahnt Wolfgang Schulz, Direktordes Hamburger Hans-Bredow-Instituts für Medienforschung (siehe Interview). Googles Algorithmus, sein Suchverfahren, ist eine Interpretation von Netzrealität und beeinflusst die öffentliche Kommunikation, glaubt der Jurist: "Was auf den Google-Ergebnislisten auftaucht oder nicht, hat Bedeutung. Nur, wer es auf die ersten zehn Listenplätze von Google schafft, existiert." Nur reichlich neun Prozent der Internet-Nutzer klicken sich weiter auf Seite 2 der Trefferlisten, weitere knapp sechs Prozent schaffen es bis zur dritten Seite.
    Google als Instanz des Massengeschmacks. Millionen Menschen huldigen der Maschine allein in Deutschland und wählten sie mit einem Marktanteil von über 80 Prozent zur Herrscherin im Reich der Suchhilfen. "Es ist ein hartnäckiges Gerücht, dass Suchmaschinen neutral sind. Schließlich haben Menschen die Regeln erdacht, nach denen die Maschinen suchen und gewichten", sagt Stefan Karzauninkat, Manager bei der Suchmaschine Seekport und Autor der Suchfibel (www.suchfibel.de). Seit Google ein Milliarden-Unternehmen ist, steht jeder seiner Schritte unter Beobachtung (Google Watch Blog: www.jmboard.com/gw). Durch Weblogs wabern Gerüchte überein Betriebssystem, an dem im Googleplex angeblich gebastelt wird, oder über eine neue Kleinanzeigendatenbank, mit der Google angeblich eBay vernichtet. Krude Verschwörungstheorien von Weltherrschaft und Künstlicher Intelligenz versetzen inzwischen sogar Wal Mart in Angst. Der Handelsriese fürchtet, ein allgegenwärtiges Google könne Kunden helfen, Produkte anderswo billiger zu bekommen - meldet zumindest die New York Times. In der Google-Zentrale in Mountain View hält man sich bedeckt- oder heizt mit nebulösen Bemerkungen die Diskussion an (google blog.blogspot.com). Über die Geheimniskrämerei im Silicon Valley beschwert sich der deutsche Suchmaschinenpapst Wolfgang Sander-Beuermann. "Es ist fast unmöglich, bei Google hineinzuschauen. Selbst der Parkplatz vor der Firma ist tabu. Im letzten Jahrverwehrte mir die Security sogar den Zutritt. Vor vier Jahren durften Besucher zumindest noch in die Empfangshalle", berichtet der Leiter des Suchmaschinenlabors der Universität Hannover. Weil Sander-Beuermann den Zugang zum Weltwissen durch Suchmaschinenmonopole gefährdet sieht, gründete er im letzten Jahr einen Verein zur Förderung des freien Wissenszugangs (su ma-ev.de). "Das Problem bei Monopolen ist, dass sie nicht kontrollierbar sind"' meint der Suchmaschinen-Spezialist. "Keiner weiß, ob sie Suchergebnisse manipulieren oder wie sie die gesammelten Daten nutzen." Nur eines sei klar: Googles E-Mail-Dienst GMail klebe ein Cookie auf die Festplatte, das bis zum Jahr 2038 gilt. "Auch bei der Suche werden Cookies gesetzt. Die gewonnenen Daten könnte Google verbinden und jede persönliche Suche mitlesen."
    "Wir verkaufen keine Daten, erstellen keine Profile"' hält Google-Sprecher Stefan Keuchel dagegen. Google sei auch keine Internet-Polizei . "Google-Bashing ist gerade aktuell. Wir werden in einen Topf geworfen mit Microsoft", klagt der deutsche Googler. "Aber an unserer Philosophie 'Tu nichts Böses' lassen wir uns messen. Wir sind die Guten!" Doch andere wollen die Besseren werden. Googles Vorsprung schmilzt, meint Stefan Karzauninkat, weil sein Wertungssystem zunehmend ausgehebelt wird: Dritte verdienen am Verkauf von Links und dem Frisieren der Ergebnislisten Geld: "Das kostet zwischen 10 und tausenden Euro im Monat, je nach Position." Google-Konkurrentenarbeiten an neuen Ideen, genauso wie Suchmaschinenpapst Sander-Beuermann. Der träumt zum Beispiel vom Durchbruch der Peer-to-PeerSuchmaschine YaCy (www.suma-lab.de/ ya cy): "Wenn es genügend Leuten beim Gedanken an eine Suchmaschinen-Supermacht ungemütlich wird, erreicht ein solches Open-Source-Modell die kritische Masse." Mal schauen."
  19. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 5741) [ClassicSimilarity], result of:
              0.076993905 = score(doc=5741,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 5741, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5741)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
  20. Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004) 0.02
    0.018147638 = product of:
      0.036295276 = sum of:
        0.036295276 = product of:
          0.07259055 = sum of:
            0.07259055 = weight(_text_:daten in 3036) [ClassicSimilarity], result of:
              0.07259055 = score(doc=3036,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2974733 = fieldWeight in 3036, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3036)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."

Types

  • a 87
  • m 4
  • el 2
  • x 2
  • More… Less…