Search (316 results, page 1 of 16)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.26
    0.2563332 = product of:
      0.5126664 = sum of:
        0.041633796 = product of:
          0.16653518 = sum of:
            0.16653518 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16653518 = score(doc=2514,freq=2.0), product of:
                0.29631644 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.034951173 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.25 = coord(1/4)
        0.23551631 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23551631 = score(doc=2514,freq=4.0), product of:
            0.29631644 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.034951173 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23551631 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23551631 = score(doc=2514,freq=4.0), product of:
            0.29631644 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.034951173 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.04
    0.035356645 = product of:
      0.10606993 = sum of:
        0.09332757 = weight(_text_:zugang in 343) [ClassicSimilarity], result of:
          0.09332757 = score(doc=343,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.48581576 = fieldWeight in 343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.012742363 = product of:
          0.03822709 = sum of:
            0.03822709 = weight(_text_:29 in 343) [ClassicSimilarity], result of:
              0.03822709 = score(doc=343,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.31092256 = fieldWeight in 343, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=343)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Folksonomies ermöglichen den Nutzern in Kollaborativen Informationsdiensten den Zugang zu verschiedenartigen Informationsressourcen. In welchen Fällen beide Bestandteile des Web 2.0 am besten für das Information Retrieval geeignet sind und wo sie die Websuche ggf. ersetzen können, wird in diesem Beitrag diskutiert. Dazu erfolgt eine detaillierte Betrachtung der Reichweite von Social-Bookmarking-Systemen und Sharing-Systemen sowie der Retrievaleffektivität von Folksonomies innerhalb von Kollaborativen Informationsdiensten.
    Pages
    S.29-53
  3. Behrens, D.: Test: Datei-Newsserver (2004) 0.03
    0.032584526 = product of:
      0.06516905 = sum of:
        0.01070786 = product of:
          0.04283144 = sum of:
            0.04283144 = weight(_text_:seite in 2139) [ClassicSimilarity], result of:
              0.04283144 = score(doc=2139,freq=4.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.21879151 = fieldWeight in 2139, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2139)
          0.25 = coord(1/4)
        0.050515026 = weight(_text_:zugang in 2139) [ClassicSimilarity], result of:
          0.050515026 = score(doc=2139,freq=6.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.2629555 = fieldWeight in 2139, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2139)
        0.003946168 = product of:
          0.011838503 = sum of:
            0.011838503 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
              0.011838503 = score(doc=2139,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.09672529 = fieldWeight in 2139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2139)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  4. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.03
    0.031251155 = product of:
      0.093753465 = sum of:
        0.0824907 = weight(_text_:zugang in 386) [ClassicSimilarity], result of:
          0.0824907 = score(doc=386,freq=4.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.42940453 = fieldWeight in 386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.011262765 = product of:
          0.033788294 = sum of:
            0.033788294 = weight(_text_:29 in 386) [ClassicSimilarity], result of:
              0.033788294 = score(doc=386,freq=4.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.2748193 = fieldWeight in 386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
    Date
    13. 5.2007 10:29:29
  5. Machill, M.; Beiler, M.; Zenker, M.: Suchmaschinenforschung : Überblick und Systematisierung eines interdisziplinären Forschungsfeldes (2007) 0.03
    0.027836999 = product of:
      0.083510995 = sum of:
        0.06999568 = weight(_text_:zugang in 370) [ClassicSimilarity], result of:
          0.06999568 = score(doc=370,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.36436182 = fieldWeight in 370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.046875 = fieldNorm(doc=370)
        0.013515319 = product of:
          0.040545955 = sum of:
            0.040545955 = weight(_text_:29 in 370) [ClassicSimilarity], result of:
              0.040545955 = score(doc=370,freq=4.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.3297832 = fieldWeight in 370, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=370)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen sind aus dem Internet nicht mehr wegzudenken. Das Wachstum der Netzinhalte, begünstigt durch die niedrigen kommunikativen Zugangsbarrieren, macht die Selektion relevanter Inhalte, das Trennen des Wichtigen vom Unwichtigen, zur Notwendigkeit. Suchmaschinen übernehmen diese Selektions- und Vermittlungsfunktion an der Schnittstelle zwischen öffentlicher und individueller Kommunikation. Sie ermöglichen in vielen Fällen erst den Zugang zu ansonsten schwer oder gar nicht zugänglichen Informationen und erweitern somit den Horizont der rein menschlichen Suche. Suchmaschinen liefern nicht automatisch die >richtigen< Antworten auf Suchanfragen, sie reduzieren die Komplexität des Webs auf eine überschaubare Zahl von Seiten, von denen aus eine Nutzerin oder ein Nutzer in die Lage versetzt wird, ein für sie bzw. ihn relevantes Ergebnis zu finden. Sie üben somit eine den klassischen Gatekeepern vergleichbare Funktion aus.
    Date
    13. 5.2007 10:29:29
  6. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.03
    0.027836999 = product of:
      0.083510995 = sum of:
        0.06999568 = weight(_text_:zugang in 378) [ClassicSimilarity], result of:
          0.06999568 = score(doc=378,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.36436182 = fieldWeight in 378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
        0.013515319 = product of:
          0.040545955 = sum of:
            0.040545955 = weight(_text_:29 in 378) [ClassicSimilarity], result of:
              0.040545955 = score(doc=378,freq=4.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.3297832 = fieldWeight in 378, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=378)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
    Date
    13. 5.2007 10:29:29
  7. Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.03
    0.026035707 = product of:
      0.07810712 = sum of:
        0.012114559 = product of:
          0.048458237 = sum of:
            0.048458237 = weight(_text_:seite in 2858) [ClassicSimilarity], result of:
              0.048458237 = score(doc=2858,freq=2.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.24753433 = fieldWeight in 2858, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2858)
          0.25 = coord(1/4)
        0.06599256 = weight(_text_:zugang in 2858) [ClassicSimilarity], result of:
          0.06599256 = score(doc=2858,freq=4.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.34352362 = fieldWeight in 2858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen sind die neuen »Gatekeeper« im Internet. Sie kanalisieren unsere Aufmerksamkeit und haben entscheidenden Einfluss darauf, welche Inhalte wie zugänglich sind. Ohne sie sind Informationen im Netz nur schwer auffindbar. Allerdings: Nur wenige Nutzer wissen, wie man Suchmaschinen optimal bedient und wie sie funktionieren. Sie sind anfällig für Manipulationen (»Spamming«) und verschaffen auch ungewollt Zugang zu illegalen und jugendgefährdenden Inhalten. Wie können Suchmaschinen trotzdem ihrer Verantwortung als zentrale Informationssortierer gerecht werden? Eine groß angelegte Untersuchung der Bertelsmann Stiftung stellt diese Beobachtungen auf eine wissenschaftliche Basis. Eine Nutzerbefragung, ein Laborexperiment und ein Leistungsvergleich geben Aufschluss über Image, Bedienerfreundlichkeit und Qualität von Suchmaschinen. Aus dieser Analyse entwickeln die Autoren einen Code of Conduct für Suchmaschinenbetreiber, der einen möglichst objektiven und transparenten Zugang zu Informationen im Netz garantieren soll. Das Buch ist dreigeteilt: Im ersten umfangreichen Teil (bis Seite 490) werden, nach einer Einführung in die Suchmaschinenproblematik und ihr Umfeld, Qualität und Nutzung erforscht: Nach der Marktanalyse der deutschsprachigen Suchdienste werden ausgewählte einem Leistungsvergleich unterzogen. Der Gefährdung von Kindern und Jugendlichen widmet sich das Kapitel Problemanalyse. Wie erfolgreich Spamversuche die Suchergebnisse beeinflussen können, wird anschließend dargestellt. Den Kenntnissen und Einstellungen von Nutzern von Suchdiensten widmet sich ein ausführliches Kapitel. Nutzungshäufigkeit, Suchprozesse und Vorgehensweisen sind detailliert untersucht worden. Die Ergebnisse der Laborexperimente liefern konkrete Einsichten, auf über 100 Seiten verständlich beschrieben. In Kapitel 6 werden die angewandten Methoden ausführlich erläutert. Das angefügte Glossar könnte ausführlicher sein. Der zweite Teil appelliert an die gesellschaftliche Verantwortung der deutschen Suchdienstbetreiber, indem ein Code of Conduct für Suchmaschinen entworfen wird. Im dritten Teil wird auf die Entwicklungen in der Suchmaschinenlandschaft eingegangen, die sich durch Firmenübernahmen und die Monopolstellung von Google ergeben haben.
  8. Levy, S.: Google inside : Wie Google denkt, arbeitet und unser Leben verändert (2012) 0.02
    0.022097904 = product of:
      0.06629371 = sum of:
        0.05832973 = weight(_text_:zugang in 2401) [ClassicSimilarity], result of:
          0.05832973 = score(doc=2401,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.30363485 = fieldWeight in 2401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2401)
        0.007963978 = product of:
          0.023891931 = sum of:
            0.023891931 = weight(_text_:29 in 2401) [ClassicSimilarity], result of:
              0.023891931 = score(doc=2401,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.19432661 = fieldWeight in 2401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2401)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Nur wenige Unternehmen waren im Laufe der Geschichte so erfolgreich und gleichzeitig umstritten wie Google. Dem Autor Steven Levy wurde in bisher noch nie dagewesenem Umfang Zugang zum Unternehmen gestattet. In diesem aufschlussreichen Buch nimmt er die Leser mit in die Google-Zentrale, das Googleplex, um zu zeigen, wie Google arbeitet. Wie Levy enthüllt, liegt der Schlüssel zum Google-Erfolg einerseits in der technischen Denkweise sowie in der Ausübung typischer "Internet-Werte" wie Geschwindigkeit, Offenheit, Experimentier- und Risikofreude. Hat Google aber vielleicht seinen innovativen Biss verloren? In China ist es schwer gestolpert und Levy deckt auf, was dort schiefgelaufen ist und wie sich Brin und seine Kollegen bei der China-Strategie nicht einig waren. Und nun jagt Google bei seiner jüngsten Initiative, den sozialen Netzwerken, erstmals einem erfolgreichen Konkurrenten hinterher. Einige Mitarbeiter verlassen mittlerweile das Unternehmen in Richtung kleinerer, wendigerer Startups. Kann Google, das den berühmten Entschluss gefasst hat, nicht böse sein zu wollen, weiter wettbewerbsfähig bleiben? Kein anderes Buch konnte bisher die Google-Interna derart offenlegen.
    Date
    4.12.2015 14:29:01
  9. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.02
    0.021009883 = product of:
      0.06302965 = sum of:
        0.040830813 = weight(_text_:zugang in 1333) [ClassicSimilarity], result of:
          0.040830813 = score(doc=1333,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.2125444 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.022198837 = product of:
          0.033298254 = sum of:
            0.016724352 = weight(_text_:29 in 1333) [ClassicSimilarity], result of:
              0.016724352 = score(doc=1333,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.13602862 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
            0.016573904 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.016573904 = score(doc=1333,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Date
    5. 1.1997 9:39:22
    6. 2.2009 10:29:08
  10. Betschon, S.: Ellbögeln um Googles Gunst : Der Google-Suchindex als Spiegelbild von politischen und wirtschaftlichen Interessenkonflikten (2006) 0.02
    0.017678322 = product of:
      0.053034965 = sum of:
        0.046663783 = weight(_text_:zugang in 5957) [ClassicSimilarity], result of:
          0.046663783 = score(doc=5957,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.24290788 = fieldWeight in 5957, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.03125 = fieldNorm(doc=5957)
        0.0063711815 = product of:
          0.019113544 = sum of:
            0.019113544 = weight(_text_:29 in 5957) [ClassicSimilarity], result of:
              0.019113544 = score(doc=5957,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.15546128 = fieldWeight in 5957, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5957)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Vor zehn Jahren, am 8. Februar 1996, wurde in Davos die "Unabhängigkeitserklärung" des Cyberspace verlesen. Anlässlich des Weltwirtschaftsforums trat ein gewisser John Perry Barlow aufs Podest, ein Viehzüchter aus Wyoming, der sich als Songschreiber der kalifornischen Psychedelic-Pop-Band Greatful Dead einen Namen gemacht hatte: "Regierungen der industrialisierten Welt, ihr müden Giganten aus Fleisch und Stahl, ich komme vom Cyberspace, der neuen Heimat des Geistes. Im Namen der Zukunft fordere ich euch Vertreter der Vergangenheit auf, uns allein zu lassen. Wir haben keine gewählte Regierung, und wir werden voraussichtlich auch nie eine haben, deshalb richte ich mich an euch mit keiner anderen Autorität als mit der, die der Freiheit selbst zu eigen ist. Ich erkläre den weltweiten Gesellschaftsraum, den wir aufbauen, als unabhängig von der Tyrannei, die ihr uns auferlegen wollt." In China, Deutschland, Frankreich, Russland, Singapur und den Vereinigten Staaten würden an den Grenzen zum Cyberspace Wachposten aufgebaut, doch diese könnten die Verbreitung des ansteckenden "Virus der Freiheit" nicht stoppen. Das Echo war, so berichten Zeitzeugen, verhalten, vermutlich wussten viele der anwesenden Politiker und Wirtschaftsführer mit Begriffen wie "Cyberspace" oder "World Wide Web" nichts anzufangen. Als Barlow die Unabhängigkeitserklärung zwei Tage später in Cannes an der MultimediaFachmesse Milia erneut vortrug, soll es dann aber donnernden Applaus gegeben haben, die Leute hätten eine halbe Stunde lang geklatscht. Die "alten Mächte aus Fleisch und Stahl" haben sich inzwischen auch im Reich der Bits und Bytes durchgesetzt. Nichts illustriert dies besser als Googles Kotau vor der chinesischen Regierung. Um Zugang zu erhalten zum chinesischen Markt, wo bereits mehr als 110 Millionen Menschen regelmässig das Internet benutzen, erklärte sich die kalifornische Jungfirma Ende Januar bereit, ihre Suchmaschine zu modifizieren, so dass sie Webseiten ausblendet, die zu Themen wie Taiwan, Tibet oder Tiananmen-Platz-Protesten Meinungen verbreiten, die denjenigen der chinesischen Regierung nicht entsprechen. Die Firma, die als ihr Unternehmensziel nennt, "die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen", deren inoffizieller Leitspruch heisst "Don't be evil" - nicht böse sein - diese Firma übernimmt nun im Auftrag der chinesischen Regierung das Amt des Zensors.
    Source
    Online Mitteilungen. 2006, Nr.86, S.29-31 [=Mitteilungen VÖB 59(2006) H.2]
  11. Günzel, C.: Wir sind die Guten! : Das Google-Monopol? (2006) 0.02
    0.015949091 = product of:
      0.04784727 = sum of:
        0.0128494315 = product of:
          0.051397726 = sum of:
            0.051397726 = weight(_text_:seite in 4732) [ClassicSimilarity], result of:
              0.051397726 = score(doc=4732,freq=4.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.26254982 = fieldWeight in 4732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4732)
          0.25 = coord(1/4)
        0.03499784 = weight(_text_:zugang in 4732) [ClassicSimilarity], result of:
          0.03499784 = score(doc=4732,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.18218091 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4732)
      0.33333334 = coord(2/6)
    
    Content
    "Mit 30 Milliarden Seiten im Index sortiert Google inzwischen das, was die Welt wissen will. Die Firma will drahtlose InternetZugänge gratis anbieten, treibt die Entwicklung der kostenfreien Bürosoftware Open Office voran und speichert in Zukunft vielleicht Texte und Dokumente im Internet. Die Kalifornier kauften sich in den letzten Jahren mehr als ein Dutzend Technologiefirmen zusammen. Das Usenet-Archiv Dejanews verleibte sich das Unternehmen ebenso ein wie WeblogAnbieter Pyra Labs (Blogger.com), den Bilderdienst Picasa, Satellitenfoto-Anbieter Keyhole oder Dodgeball, eine Social Software für Handys, mit der einsame Mobiltelefonierer Freunde finden (www.internetmarketing-news.de/2005/11/06/die-uebernahmen-von-google). Viele Beobachter des Suchmarktes sehen mit Sorge auf diese um sich greifende Marktmacht, während Google zunehmend Probleme mit dem Image bekommt. Von schmutzigen Dingen ist die Rede: Google soll Kunden ausspionieren, private Daten horten, ein gefährliches Monopol errichten - einzig mit dem Ziel, auf jede Lebenslage perfekt zugeschnittene Werbung zu verkaufen. Sogar Microsoft, der Software-Gigant und Herrscher über die Betriebssysteme von Milliarden Computern, erscheint manchem plötzlich in milderem Licht. Und selbst das hehre Ziel, 15 Millionen Bücher online zugänglich zu machen, fliegt Google um die Ohren: Nicht um das Aufpolieren verstaubten Wissens aus fünf Bibliotheken ginge es, schimpfen die Kritiker. Nein, Google wolle Kontrolle über geistiges Eigentum gewinnen (print.google.de). "Suchmaschinen sind Knotenpunkte der Meinungsbildung, keine neutralen Dienstleister", mahnt Wolfgang Schulz, Direktordes Hamburger Hans-Bredow-Instituts für Medienforschung (siehe Interview). Googles Algorithmus, sein Suchverfahren, ist eine Interpretation von Netzrealität und beeinflusst die öffentliche Kommunikation, glaubt der Jurist: "Was auf den Google-Ergebnislisten auftaucht oder nicht, hat Bedeutung. Nur, wer es auf die ersten zehn Listenplätze von Google schafft, existiert." Nur reichlich neun Prozent der Internet-Nutzer klicken sich weiter auf Seite 2 der Trefferlisten, weitere knapp sechs Prozent schaffen es bis zur dritten Seite.
    Google als Instanz des Massengeschmacks. Millionen Menschen huldigen der Maschine allein in Deutschland und wählten sie mit einem Marktanteil von über 80 Prozent zur Herrscherin im Reich der Suchhilfen. "Es ist ein hartnäckiges Gerücht, dass Suchmaschinen neutral sind. Schließlich haben Menschen die Regeln erdacht, nach denen die Maschinen suchen und gewichten", sagt Stefan Karzauninkat, Manager bei der Suchmaschine Seekport und Autor der Suchfibel (www.suchfibel.de). Seit Google ein Milliarden-Unternehmen ist, steht jeder seiner Schritte unter Beobachtung (Google Watch Blog: www.jmboard.com/gw). Durch Weblogs wabern Gerüchte überein Betriebssystem, an dem im Googleplex angeblich gebastelt wird, oder über eine neue Kleinanzeigendatenbank, mit der Google angeblich eBay vernichtet. Krude Verschwörungstheorien von Weltherrschaft und Künstlicher Intelligenz versetzen inzwischen sogar Wal Mart in Angst. Der Handelsriese fürchtet, ein allgegenwärtiges Google könne Kunden helfen, Produkte anderswo billiger zu bekommen - meldet zumindest die New York Times. In der Google-Zentrale in Mountain View hält man sich bedeckt- oder heizt mit nebulösen Bemerkungen die Diskussion an (google blog.blogspot.com). Über die Geheimniskrämerei im Silicon Valley beschwert sich der deutsche Suchmaschinenpapst Wolfgang Sander-Beuermann. "Es ist fast unmöglich, bei Google hineinzuschauen. Selbst der Parkplatz vor der Firma ist tabu. Im letzten Jahrverwehrte mir die Security sogar den Zutritt. Vor vier Jahren durften Besucher zumindest noch in die Empfangshalle", berichtet der Leiter des Suchmaschinenlabors der Universität Hannover. Weil Sander-Beuermann den Zugang zum Weltwissen durch Suchmaschinenmonopole gefährdet sieht, gründete er im letzten Jahr einen Verein zur Förderung des freien Wissenszugangs (su ma-ev.de). "Das Problem bei Monopolen ist, dass sie nicht kontrollierbar sind"' meint der Suchmaschinen-Spezialist. "Keiner weiß, ob sie Suchergebnisse manipulieren oder wie sie die gesammelten Daten nutzen." Nur eines sei klar: Googles E-Mail-Dienst GMail klebe ein Cookie auf die Festplatte, das bis zum Jahr 2038 gilt. "Auch bei der Suche werden Cookies gesetzt. Die gewonnenen Daten könnte Google verbinden und jede persönliche Suche mitlesen."
  12. Macht, W.: Blogs im Heuhaufen (2007) 0.02
    0.015468533 = product of:
      0.0464056 = sum of:
        0.040830813 = weight(_text_:zugang in 1303) [ClassicSimilarity], result of:
          0.040830813 = score(doc=1303,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.2125444 = fieldWeight in 1303, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1303)
        0.0055747842 = product of:
          0.016724352 = sum of:
            0.016724352 = weight(_text_:29 in 1303) [ClassicSimilarity], result of:
              0.016724352 = score(doc=1303,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.13602862 = fieldWeight in 1303, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1303)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Blog-Suche Die immer zahlreicher werdenden teils privaten, teils professionellen Wissens- und Meinungsplattformen im Internet sind längst eine wichtige Fundgrube für die alternative Informationssuche geworden. Plattformen wie die Blogpiloten (www.blogpiloten.de) - die zu den Netzpiloten gehören - durchforsten mit Redakteuren die so genannte Blogosphäre nach den wichtigsten Themen. Andere Suchseiten wie die brandneue Wikio (www.wikio.de) oder Blogscout (www.blogscout.de) orientieren sich an messbaren Kriterien, etwa an der Häufigkeit der Abrufe einzelner Beiträge in verschiedenen Weblogs. Produktsuche Wenn es um Kaufen und Konsum geht, ist der Zugang auch im Netz selten schwierig. Die Produktsuche Kelkoo (www.kelkoo.de) zum Beispiel führt auf breiten virtuellen Wegen zu den billigsten Angeboten im Netz. Wer kritischer einkaufen will, nimmt den Umweg über Testberichte.de (www.testberichte.de), die Test- und Verbraucher-Informationen aus mehr als 140 Testzeitschriften vermitteln. Und wer die Produkte gar nicht kaufen, sondern lieber in Gewinnspielen nach seinem Traumpreis suchen will, für den haben die Netzpiloten die Plattform Superwin (www.superwin.de) erstellt. Themen-Suchmaschinen Thematische Plattformen haben den Vorteil, dass sie meist an Spezialdatenbanken angeschlossen sind und von Experten aufgestellt und gepflegt werden. Das ist besonders wichtig bei sensiblen Themen wie Gesundheit. Nicht selten tippen Hilfesuchende einfach ihren ärztlichen Befund in die Google-Suchmaske. Keine gute Idee! Die bunt gemixte Ergebnisliste wird eher Verwirrung und Besorgnis stiften. Man startet besser bei Plattformen wie dem Medkatalog (www.medkatalog.com) oder dem Medizin-Forum(www.medizin-forum.de). Auch hilfreich: die Arztdatei (www.arztdatei.de) oder das Gesundheitsnetzwerk www.helpster.de."
    Date
    16. 8.1996 10:03:29
  13. Hähle, S.: Verborgenes Entdecken (2005) 0.01
    0.014093088 = product of:
      0.042279262 = sum of:
        0.0131143965 = product of:
          0.052457586 = sum of:
            0.052457586 = weight(_text_:seite in 34) [ClassicSimilarity], result of:
              0.052457586 = score(doc=34,freq=6.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.2679638 = fieldWeight in 34, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=34)
          0.25 = coord(1/4)
        0.029164866 = weight(_text_:zugang in 34) [ClassicSimilarity], result of:
          0.029164866 = score(doc=34,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.15181743 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.33333334 = coord(2/6)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
    In anderen Ländern suchen Die Yahoo-Suche (http://suche.yahoo.de) verfügt über eine Möglichkeit, fremdsprachige Websites ohne Kenntnisse der Fremdsprache zu durchsuchen. Wenn die Option "Suche Translator" aktiviert ist, übersetzt Yahoo deutsche Suchbegriffe automatisch ins Englische und Französische, um die Suche mit den fremdsprachigen Begriffen zu erweitern. Anschließend zeigt es alle Ergebnisse in deutscher Sprache an. Übersetzte Seiten sind mit einem Globus gekennzeichnet. Lesezeichen online ordnen Ein praktisches Tool, um gesammelte Informationen im Web zu organisieren, ist Yahoo Mein Web. Dabei handelt es sich um eine kostenlose Online-Lesezeichenverwaltung, die mit allen aktuellen Browsern funktioniert. Ergebnisse der Yahoo-Suche können in Ordnern abgelegt und mit privaten Notizen versehen werden. Der Zugang zu den Bookmarks ist über die Yahoo-ID und das zugehörige Passwort geschützt. Da der Dienst Kopien der gemerkten Webseiten anlegt, sind diese auch dann erreichbar, wenn sie nicht mehr im Web existieren. Über eine Volltextsuche lassen sich alle Ordner durchsuchen. Mein Web finden Sie unter der Webadresse: http://meinweb.yahoo.de. MP3s im Web finden Musikdateien gibt's nicht nur in Internet-Tauschbörsen. Ganz legal kann man Sie bei Webdiensten wie AOL Musik Downloads (http://mu sikdownloads.aol.de), Apple iTunes (www. appie.com/de/itunes) oder T-Online Musicload (www.musicload.de) herunterladen -allerdings nicht kostenlos. Insider nutzen noch eine andere Variante: Wenn Anwender ihre MP3s online-Sicherheitsvorkehrungen im Web ablegen, schlagen sie zu. Mit Google lassen sich die Musikdateien sehr schnell aufspüren. Dazu geben die Experten "index of /mp3" ins Suchfeld ein. Die Suchanfrage lässt sich um Künstler, Liedtitel oder Album ergänzen, um noch bessere Ergebnisse zu erzielen. Bedenken Sie dabei, dass es verboten ist, urheberrechtlich geschütztes Material aus dem Internet herunterzuladen!
    Private Bilder aufspüren Wo ungeschützte Musikverzeichnisse liegen, gibt es auch Bildarchive, auf die eigentlich niemand zugreifen soll. Doch Google hilft dabei. Wer beispielsweise "index of /images/girls" eingibt, findet so manche Privatsachen. Die Kombination von "index of /images/" mit anderen Begriffen fördert noch mehr geheime Bilder zu Tage. Zwar bietet heute fast jede Suchmaschine eine Bildersuche an, doch es gibt eine, die sehr schnell ist und besonders viele Ergebnisse liefert: www.alltheweb.com. Über "customize preferences" auf der Startseite können Sie den "Offensive content filter" abschalten, um noch mehr Suchergebnisse zu erhalten. Gesperrte Seiten anzeigen Die Betreiber von Websites können Suchmaschinen dazu bringen, bestimmte Seiten ganz einfach von der Indizierung auszunehmen. In der Datei "robots.txt", die zu jeder Website gehört, steht dann "Disallow:", gefolgt von der Seite, die nicht gefunden werden soll. Mit der Suchanfrage robots ext:txt suchen Profis nach "robots.txt"-Dateien. Dann kopieren sie die Webadressen gesperrter Webseiten ("Strg + C"), um sie in die Adresszeile des Browsers einzufügen ("Strg + V"). Und schon erscheint die Webseite, die niemand finden soll. Geheimnisse entdecken Wer Word- und Excel-Dokumente (".doc", ".xls") oder PowerPoint-Präsentationen (".ppt") ungeschützt ins Internet legt, der ermöglicht jedermann den Diebstahl der Daten. Dass dieser mit Google ganz einfach ist, überrascht dennoch. So genügen Eingaben wie ext:doc vertraulich ext:ppt confidential [Suchbegriff] ext:xls umsatz um interessante Firmendokumente aufzuspüren, die nicht für die Öffentlichkeit bestimmt sind. Suchen ohne Suchmaschinen Nicht immer sind Suchmaschinen die beste Möglichkeit, um Informationen im Web aufzuspüren. Suchen Sie etwa eine Begriffserklärung, ist es sinnvoll, erst einmal in einem Online-Lexikon wie Wikipedia (www.wikipedia.de) nachzuschlagen oder bei www.wissen.de nachzusehen. Wollen Sie wissen, ob ein Zug oder ein Flug pünktlich ankommt, weil Sie jemanden abholen müssen, sehen Sie unter http://reiseauskunft.bahn.de/bin/bhftafel.exe/ dn? oder www.flugplandaten.de nach. Übrigens: Eine gepflegte Link-Sammlung ist meistens besser, als ständig aufs Neue zu suchen. Und oftmals genügt es, einen Begriff als Webadresse auszuprobieren, um an die gewünschten Informationen zu kommen, etwa: www.fahrplanauskunft.de, www.nachrichten.de oder www.sport.de."
  14. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.01
    0.013610272 = product of:
      0.08166163 = sum of:
        0.08166163 = weight(_text_:zugang in 284) [ClassicSimilarity], result of:
          0.08166163 = score(doc=284,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.4250888 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.16666667 = coord(1/6)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
  15. Sauer, D.: Alles schneller finden (2001) 0.01
    0.012770067 = product of:
      0.0766204 = sum of:
        0.0766204 = product of:
          0.1149306 = sum of:
            0.06757659 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.06757659 = score(doc=6835,freq=4.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.047354013 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.047354013 = score(doc=6835,freq=2.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  16. Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002) 0.01
    0.012245489 = product of:
      0.036736466 = sum of:
        0.0075715994 = product of:
          0.030286398 = sum of:
            0.030286398 = weight(_text_:seite in 569) [ClassicSimilarity], result of:
              0.030286398 = score(doc=569,freq=2.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.15470895 = fieldWeight in 569, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=569)
          0.25 = coord(1/4)
        0.029164866 = weight(_text_:zugang in 569) [ClassicSimilarity], result of:
          0.029164866 = score(doc=569,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.15181743 = fieldWeight in 569, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.01953125 = fieldNorm(doc=569)
      0.33333334 = coord(2/6)
    
    Content
    "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
    Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
  17. ¬Der Erfolg von Google (2003) 0.01
    0.0120152235 = product of:
      0.03604567 = sum of:
        0.02967449 = product of:
          0.11869796 = sum of:
            0.11869796 = weight(_text_:seite in 1407) [ClassicSimilarity], result of:
              0.11869796 = score(doc=1407,freq=12.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.60633284 = fieldWeight in 1407, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.25 = coord(1/4)
        0.0063711815 = product of:
          0.019113544 = sum of:
            0.019113544 = weight(_text_:29 in 1407) [ClassicSimilarity], result of:
              0.019113544 = score(doc=1407,freq=2.0), product of:
                0.1229473 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.034951173 = queryNorm
                0.15546128 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
    Date
    29. 1.1997 18:49:05
  18. Google(TM) Scholar erleichtert institutionellen Zugang (2005) 0.01
    0.011665947 = product of:
      0.06999568 = sum of:
        0.06999568 = weight(_text_:zugang in 3973) [ClassicSimilarity], result of:
          0.06999568 = score(doc=3973,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.36436182 = fieldWeight in 3973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.046875 = fieldNorm(doc=3973)
      0.16666667 = coord(1/6)
    
  19. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.01
    0.011665947 = product of:
      0.06999568 = sum of:
        0.06999568 = weight(_text_:zugang in 5741) [ClassicSimilarity], result of:
          0.06999568 = score(doc=5741,freq=2.0), product of:
            0.19210486 = queryWeight, product of:
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.034951173 = queryNorm
            0.36436182 = fieldWeight in 5741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.496378 = idf(docFreq=492, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.16666667 = coord(1/6)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
  20. Puschwadt, O.: Wer suchet, der findet : Suchmaschinen - Es müssen nicht immer nur Google und Yahoo sein (2005) 0.01
    0.011052759 = product of:
      0.033158276 = sum of:
        0.024229119 = product of:
          0.096916474 = sum of:
            0.096916474 = weight(_text_:seite in 3731) [ClassicSimilarity], result of:
              0.096916474 = score(doc=3731,freq=8.0), product of:
                0.1957637 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.034951173 = queryNorm
                0.49506867 = fieldWeight in 3731, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3731)
          0.25 = coord(1/4)
        0.008929159 = product of:
          0.026787475 = sum of:
            0.026787475 = weight(_text_:22 in 3731) [ClassicSimilarity], result of:
              0.026787475 = score(doc=3731,freq=4.0), product of:
                0.12239305 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034951173 = queryNorm
                0.21886435 = fieldWeight in 3731, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3731)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Nobody is perfect - diese Weisheit trifft auch auf Suchmaschinen zu. Google, Yahoo und Co. finden zwar viel, aber nicht alles. Insbesondere bei Spezialthemen ist es ratsam, eine Meta-Suchmaschine wie Metacrawler (www.metacrawler.de), MetaGer (meta.rrzn.uni-hannover.de) oder Ixquick (www.eu.ixquick.com) zu Rate zu ziehen. Sie fragen gleichzeitig mehrere Suchmaschinen ab. Bei Metacrawler sind dies beispielsweise 22 internationale und 15 nationale Suchdienste. Ixquick durchstöbert gleichzeitig mindestens zehn der populärsten Suchmaschinen und dies in 17 Sprachen. Dadurch verbessert sich die Trefferquote natürlich erheblich. Eine weitere gute Möglichkeit, die spezielle Suche im Internet spürbar zu erleichtern, ist die Benutzung eines Webkataloges. Zu empfehlen sind Excite (www.excite.de), das Suchlexikon (www.suchlexikon.de) oder auch das englischsprachige Angebot iTools (www.itools.com). Diese Webkataloge können als "Verzeichnisse von Suchmaschinen" bezeichnet werden. Sie bündeln verschiedene Suchmaschinen zu bestimmten Themengebieten wie Wirtschaft, Freizeit, Computer oder Sport. Keine Suchmaschine im eigentlichen Sinne, aber dennoch sehr nützlich, um an Informationen oder auch Ratschläge im Netz zu kommen, ist Wikipedia (de.wikipedia.org). Das Internet-Lexikon hat sich den Beinamen "die freie Enzyklopädie" gegeben und dient als Sammelpunkt für Informationen und Wissen der User. Dies ist allerdings auch die Schwäche der Seite, denn um eine hundertprozentig verlässliche Antwort zu bekommen, sind die Angaben oft zu ungenau. Eine interessante Variante ist die News-Suchmaschine Paperball (www.paperball.de). Hierbei werden die Online-Ausgaben deutscher und internationaler, Tagesund Wochenzeitungen durchforstet. Man kann die Suche auch auf bestimmte Rubriken beschränken. Auf der Suche nach ehemaligen Mitschülern? Dann sind Sie bei StayFriends (www.stayfriends.de) genau richtig. Nach einer kostenlosen Anmeldung kann man nach verloren gegangenen Freunden aus der Schulzeit fahnden. Fast 1,8 Millionen Einträge sollen laut Anbieter bereits auf der Seite eingegangen sein. Der Nachteil: Wer sich nicht eingetragen hat, wird auch nicht gefunden. Wer gezielt nach Bildern sucht, wird bei Bomis (www.bomis.com) fündig. Hierbei werden nur Seiten durchstöbert, auf denen sich Bilder zu bestimmten Themen oder Personen befinden. Abschließend sei allen Internetnutzern noch eine ganz spezielle Seite ans Herz gelegt. Die Suchfibel (www.suchfibel.de) gibt wichtige Tipps für das richtige Suchen im Netz. Zum einen werden hier Ratschläge gegeben, die das Finden von Informationen im Web einfacher machen, zum anderen listet die Seite auch 2700 verschiedene Suchmaschinen - nach Stichwörtern geordnet - auf."
    Date
    3. 5.1997 8:44:22

Years

Languages

  • d 196
  • e 117
  • f 2
  • nl 1
  • More… Less…

Types

  • a 278
  • m 21
  • el 19
  • s 4
  • x 4
  • p 2
  • r 1
  • More… Less…