Search (796 results, page 1 of 40)

  • × theme_ss:"Internet"
  1. Beuth, P.: Kurz und fündig : Microsoft setzt jetzt auf Kurzmeldungen (2009) 0.07
    0.06935182 = product of:
      0.13870364 = sum of:
        0.09728119 = weight(_text_:suchmaschine in 3203) [ClassicSimilarity], result of:
          0.09728119 = score(doc=3203,freq=12.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.45906824 = fieldWeight in 3203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.0363447 = weight(_text_:ranking in 3203) [ClassicSimilarity], result of:
          0.0363447 = score(doc=3203,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.17928566 = fieldWeight in 3203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.00507775 = product of:
          0.015233249 = sum of:
            0.015233249 = weight(_text_:22 in 3203) [ClassicSimilarity], result of:
              0.015233249 = score(doc=3203,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.116070345 = fieldWeight in 3203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3203)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Das große Gerangel um die Suchmaschine der Zukunft geht in die nächste Runde. Erst gab Microsoft am gestrigen Donnerstag bekannt, künftig auch die Nachrichten von Twitter- und Facebook-Nutzern in seine Suchergebnisse aufzunehmen. Und nur wenige Stunden später verkündete Google, einen ganz ähnlichen Deal mit Twitter abgeschlossen zu haben. Der mit Facebook könnte bald folgen. Die Konkurrenten integrieren damit in ihre Suchergebnisse, was sie bislang nicht hatten: die Echtzeit-Suche. Google-Vizepräsidentin Marissa Mayer nennt in einem Blog-Eintrag selbst ein Beispiel: "Wenn Sie das nächste Mal nach etwas suchen, bei dem Echtzeit-Beobachtungen hilfreich sind - sagen wir aktuelle Schneebedingungen in Ihrem Lieblings-Skigebiet - werden Sie bei Google auch Twitter-Einträge von Leuten finden, die bereits in dem Gebiet sind und von dort die neuesten Informationen verbreiten." Bei Twitter und Facebook, wo Millionen Nutzer zu jeder Zeit neue Nachrichten zu jedem beliebigen Thema verfassen, kommt bislang keine Suchmaschine mit. So schnell, wie in den Netzwerken etwas Neues veröffentlicht wird, ist keiner der Roboter, die für Google und Microsofts Suchmaschine Bing die Inhalte des Internets durchstöbern.
    Profitieren können alle Beteiligten - Beide Unternehmen brauchen diese Daten aber, weil sich das Suchverhalten der Menschen ändert. Der Harvard-Professor Urs Gasser hat festgestellt, dass junge Internetnutzer die Relevanz einer Information "weniger an der Quelle" messen als daran, "was in ihrer Facebook-Gruppe gelesen und geschrieben wird." Anders ausgedrückt: Sie lassen nicht mehr Nachrichtenseiten oder Google-News entscheiden, was die wichtigsten Themen der Stunde sind, sondern ihre Freunde und Bekannten im Netz. Und die verbreiten ihre Favoriten eben über Facebook oder auch Twitter. In den Netzwerken kursieren vor allem auch Informationen, die bislang unter der Wahrnehmungsschwelle der Suchmaschinen liegen, weil sie nur für einige wenige Menschen und eine begrenzte Zeit interessant sind und deshalb keine entsprechende Internet-Präsenz haben. Zwar kann man auch auf twitter.com die aktuellen Einträge, sogenannte Tweets, nach Begriffen durchsuchen. Doch als eigenständige Suchmaschine ist Twitter der breiten Masse der Internetnutzer nahezu unbekannt. Zudem ist die Auflistung der Suchergebnisse streng chronologisch und zeigt damit viele nutzlose Informationen an. Die erste Betaversion von Bing sortiert die Tweets schon jetzt um einiges intelligenter (weiteres nach dem Seitenwechsel unten). Profitieren können von den Deals alle Beteiligten. Die Suchmaschinen können mehr und vor allem brandaktuelle Informationen anzeigen und werden damit für Werbekunden, die neben diese Suchergebnissen angezeigt werden wollen, interessanter. Denn auf twitter.com selbst gibt es bislang keine Werbung. Das Netzwerk selbst - wie auch Facebook - ist seit seiner Gründung ein Geschäft ohne Geschäftsmodell und auf wohlwollende Geldgeber angewiesen. Die Kooperation mit Google und Microsoft dürfte an sich schon mal eine größere Summe in die Kassen spielen, auch wenn sich bislang keines der Unternehmen dazu äußern will. Wahrscheinlich werden Twitter und Facebook aber auch an den Werbeeinnahmen beteiligt, die die Suchmaschinen mit den neuen Inhalten generieren. Außerdem werden die Netzwerke aufgewertet, weil sie ihre Reichweiten steigern und auch Nicht-Mitglieder erreichen.
    Wie genau eine Suche nach Tweets über eine Suchmaschine aussehen wird, kann man bislang nur bei Microsoft in einer Betaversion unter bing.com/twitter sehen. Das Fachblog Search Engine Land erklärt den Ablauf: An oberster Stelle befindet sich ein Feld mit den derzeit meistdiskutierten Begriffen bei Twitter. Das ist ein erster Gradmesser für die Relevanz eines Themas. Wer dann einen Suchbegriff eingibt, etwa "Dan Brown", bekommt zwei Felder angezeigt. In einem stehen die jüngsten Twitter-Einträge, die sogenannten Tweets, zum Thema Dan Brown. Die jüngsten heißt im besten Fall: veröffentlicht vor einer Minute. Im zweiten Feld stehen die wichtigsten Links zum Thema Dan Brown, die aktuell über Twitter verbreitet werden. Entscheidend für die Qualität der Suchergebnisse ist der Filter von Microsoft. Die Suchmaschine durchwühlt nicht selbst alle Twitterprofile, sonder Twitter liefert in Echtzeit alle veröffentlichten Tweets an Bing über eine Art Standleitung. Dort werden zunächst möglichst alle Duplikate und nicht jugendfreien Inhalte aussortiert. Dann wird ein Ranking erstellt. Kriterien für die Filter sind die Popularität des Twitterers (abzulesen an der Zahl seiner Beobachter, der sogenannten Follower), die Zahl der Weiterleitungen (Retweets) und die Aktualität des Tweets. Das alles dauert noch einige Sekunden. In einer ausgereiften Version aber soll sie in der Lage sein, das millionenfache Gezwitscher nutzerfreundlich und ohne Verzögerung zu sortieren."
    Date
    3. 5.1997 8:44:22
  2. Philippus, T.: Informationssuche im Internet : Tips für Profis (1997) 0.07
    0.068099074 = product of:
      0.20429721 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 928) [ClassicSimilarity], result of:
          0.18721774 = score(doc=928,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=928)
        0.017079476 = product of:
          0.051238425 = sum of:
            0.051238425 = weight(_text_:29 in 928) [ClassicSimilarity], result of:
              0.051238425 = score(doc=928,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38865322 = fieldWeight in 928, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=928)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    17. 7.2002 15:29:42
    RSWK
    Internet / Suchmaschine (21)
    Subject
    Internet / Suchmaschine (21)
  3. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1998) 0.07
    0.068047866 = product of:
      0.20414358 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 668) [ClassicSimilarity], result of:
          0.18721774 = score(doc=668,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=668)
        0.016925834 = product of:
          0.050777502 = sum of:
            0.050777502 = weight(_text_:22 in 668) [ClassicSimilarity], result of:
              0.050777502 = score(doc=668,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38690117 = fieldWeight in 668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=668)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    RSWK
    Internet / Suchmaschine (21)
    Signature
    77 TWP 3911(2)+22
    Subject
    Internet / Suchmaschine (21)
  4. Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004) 0.05
    0.05081504 = product of:
      0.15244511 = sum of:
        0.14652106 = weight(_text_:suchmaschine in 4826) [ClassicSimilarity], result of:
          0.14652106 = score(doc=4826,freq=20.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.69143033 = fieldWeight in 4826, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4826)
        0.005924042 = product of:
          0.017772125 = sum of:
            0.017772125 = weight(_text_:22 in 4826) [ClassicSimilarity], result of:
              0.017772125 = score(doc=4826,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.1354154 = fieldWeight in 4826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4826)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
    Inzwischen hat der Buchversender einige Vorkehrungen getroffen. Unter anderem wurde eine elektronische Sperre errichtet, so dass die Seiten inzwischen nur noch von geübten Computernutzern kopiert oder ausdruckt werden können. Mit "Search Inside the Bock" hat der OnlineRiese seinen ersten Schritt in den heiß umkämpften Markt der Suchmaschinen unternom- men. Schon plant Amazön nach amerikanischen Medienberichten eine weitere Suchmaschine, um Kunden das elektronische Einkaufen zu erleichtern.. Die unter den Codenamen A9 bekannte Suchmaschine soll unter anderem die Preise von Produkten vergleichen und das günstigste Angebot ermitteln. Damit stößt Amazön in einen Markt vor, der bisher in den USA von dem Onlineportal Yahoo oder der Super-Suchmaschine Google beherrscht wurde. Google hat bereits zum Gegenangriff angesetzt. Nach Informationen des Fachmagazins "Publishers Weekly". verhandelt das Unternehmen bereits mit Verlagen, um ebenfalls in die neue Dimension der Buchinhalte vorzudringen."
    Date
    3. 5.1997 8:44:22
  5. Terliesner, J.: Information Retrieval in Wikis : wie können klassische Methoden des Information Retrievals die Suchfunktion eines Wikis bereichern? (2010) 0.05
    0.050706387 = product of:
      0.15211916 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 3504) [ClassicSimilarity], result of:
          0.07942976 = score(doc=3504,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 3504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=3504)
        0.0726894 = weight(_text_:ranking in 3504) [ClassicSimilarity], result of:
          0.0726894 = score(doc=3504,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 3504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=3504)
      0.33333334 = coord(2/6)
    
    Abstract
    Wikis erfreuen sich als gemeinschaftliche Wissenssammlungen wachsender Beliebtheit. Wissenssammlungen können jedoch nur effektiv genutzt werden, wenn geeignete Suchwerkzeuge zur Verfügung stehen, die alle Besonderheiten der Suchumgebung berücksichtigen. Allerdings liefern Suchfunktionen in Wikis häufig nicht relevante Ergebnisse. Dieser Artikel beschreibt den Aufbau und die Funktionsweise einer optimierten Suchmaschine für Wikis, mit welcher dieser Missstand beseitigt werden soll. Um ein Suchergebnis als Ranking präsentieren zu können, muss dies nach bestimmten Kriterien erfolgen. Viele Kriterien aus dem Web können in Wikis nicht übernommen werden. Deshalb ist eine genaue Analyse der Struktur von Wikis erforderlich. Es wird beschrieben wie Suchergebnisse in Clustern dargestellt werden können, die auf der besonderen Struktur von Wikis beruhen. Dieser Artikel bildet die theoretische Grundlage für weitere Forschung, in der die vorgestellten Thesen analysiert werden und durch einen Retrievaltest bestätigt werden sollen.
  6. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.05
    0.04672573 = product of:
      0.14017719 = sum of:
        0.091717586 = weight(_text_:suchmaschine in 1076) [ClassicSimilarity], result of:
          0.091717586 = score(doc=1076,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4328137 = fieldWeight in 1076, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.0484596 = weight(_text_:ranking in 1076) [ClassicSimilarity], result of:
          0.0484596 = score(doc=1076,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.23904754 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  7. Keller, R.M.: ¬A bookmarking service for organizing and sharing URLs (1997) 0.04
    0.04063629 = product of:
      0.121908866 = sum of:
        0.0726894 = weight(_text_:ranking in 2721) [ClassicSimilarity], result of:
          0.0726894 = score(doc=2721,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 2721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2721)
        0.049219467 = product of:
          0.0738292 = sum of:
            0.030743055 = weight(_text_:29 in 2721) [ClassicSimilarity], result of:
              0.030743055 = score(doc=2721,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 2721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2721)
            0.04308614 = weight(_text_:22 in 2721) [ClassicSimilarity], result of:
              0.04308614 = score(doc=2721,freq=4.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.32829654 = fieldWeight in 2721, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2721)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Presents WebTagger, an implemented prototype of a personal book marking service that provides both individuals and groups with a customisable means of organizing and accessing Web-based information resources. The service enables users to supply feedback on the utility of these resources relative to their informatio needs, and provides dynamically updated ranking of resources based on incremental user feedback. Individuals may access the service from anywhere on the Internet and require no special software. The service simplifies the process of sharing URLs within groups, in comparison with manual methods involving email. The underlying bookmark organization scheme is more natural and flexible than current hierarchical schemes supported by the major Web browsers and enables rapid access to stored bookmarks
    Date
    1. 8.1996 22:08:06
    17. 1.1999 14:22:14
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1103-1114
  8. Zhang, Y.; Jansen, B.J.; Spink, A.: Identification of factors predicting clickthrough in Web searching using neural network analysis (2009) 0.04
    0.037651278 = product of:
      0.112953834 = sum of:
        0.102798335 = weight(_text_:ranking in 2742) [ClassicSimilarity], result of:
          0.102798335 = score(doc=2742,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 2742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2742)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 2742) [ClassicSimilarity], result of:
              0.030466499 = score(doc=2742,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 2742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2742)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    In this research, we aim to identify factors that significantly affect the clickthrough of Web searchers. Our underlying goal is determine more efficient methods to optimize the clickthrough rate. We devise a clickthrough metric for measuring customer satisfaction of search engine results using the number of links visited, number of queries a user submits, and rank of clicked links. We use a neural network to detect the significant influence of searching characteristics on future user clickthrough. Our results show that high occurrences of query reformulation, lengthy searching duration, longer query length, and the higher ranking of prior clicked links correlate positively with future clickthrough. We provide recommendations for leveraging these findings for improving the performance of search engine retrieval and result ranking, along with implications for search engine marketing.
    Date
    22. 3.2009 17:49:11
  9. Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008) 0.04
    0.036594182 = product of:
      0.10978255 = sum of:
        0.05732349 = weight(_text_:suchmaschine in 1797) [ClassicSimilarity], result of:
          0.05732349 = score(doc=1797,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.27050856 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
        0.05245906 = weight(_text_:ranking in 1797) [ClassicSimilarity], result of:
          0.05245906 = score(doc=1797,freq=6.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.25877658 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suchmaschine und das Online-Lexikon greifen sich gegenseitig an. Beide wollen es besser können als der andere.
    Content
    Knol? Knol ist bekannter unter dem Namen gPedia oder auch Googlepedia, ein Online-Lexikon wie Wikipedia. Google greift Wikipedia an. Warum? Weil Wikipedia Google angegriffen hat. Denn vor zirka einem Jahr verkündete Wiki-Gründer Jimmy Wales, dass er eine eigene Suchmaschine konzipiert, die nach Wiki-Prinzipien arbeitet. Die Verantwortlichen bei Google, die eh in jedem Bereich des Internets Fuß fassen möchten, griffen den Fehdehandschuh auf und riefen Knol ins Leben. Wikia Search kann der Besucher schon ausprobieren (search.wikia.com/wiki/Search_Wikia/de), zu Knol gibt es nur einen Bild (www.google.com/help/knol_screenshot.ht ml) und eine Reihe von Ideen (knolstuff.com). Beide Neuschöpfungen versuchen, die Fehler des konkurrierenden Vorbilds zu vermeiden, um auf Dauer besser zu sein. Das Nachschlagewerk Der Hauptunterschied zwischen Knol - der Name kommt von Knowledge - und Wikipedia betrifft die Rolle der Autoren. Bei Wiki sind Autoren und Leser etwa gleichwertig, so dass der Leser, wenn er einen Fehler findet, sofort in die Rolle des Autors wechselt und Korrekturen oder Ergänzungen unmittelbar am Text vornimmt. Anders bei Knol, denn hier rückt der Autor stärker in den Vordergrund. Er ist mit Bild rechts oben in der Ecke seines Textes sichtbar und der Leser findet Informationen über ihn. Im Zentrum steht nicht die Weisheit der Vielen, sondern die Sachkunde des Experten. Dieser behält im Folgenden die Kontrolle über seinen Text, indem er beispielsweise Ergänzungen genehmigt oder nicht. So ist eine gewisse Einheitlichkeit gewahrt. Wem der Text also nicht gefällt, kann diesen nicht ändern. Aber er kann selbst einen Text zum gleichen Thema schreiben. Verschiedene Sichtweisen eines Themas konkurrieren also nicht in einem Text wie bei Wikipedia, was oft zu skurrilen Grabenkämpfen führt, sondern in eigenständigen Werken. Der Leser hat dann die Wahl, wobei Bewertungen anderer Leser ihm bei der Auswahl helfen. Denn jeder Leser kann einen Knol-Artikel kommentieren oder rezensieren (ohne dass der Autor das zensieren könnte) und mit Sternchen bewerten. So gibt es für die Gemeinschaft die Möglichkeit, eine qualitative Auswahl und ein Ranking von Texten vorzunehmen.
    Der Autor hat darüber hinaus die Möglichkeit etwas mit seinen Texten zu verdienen. Denn er kann Google-Werbung freischalten und die Firma beteiligt ihn an den Einnahmen. So hat er noch einen Anreiz mehr, gute Qualität zu liefern und im Ranking zu steigen. Autoren, die allerdings keine Werbung mögen, weil diese beispielsweise ihr Renommee als Wissenschafter schädigt, müssen Google-Ads nicht freigeben. Noch ein Unterschied zu Wikipedia liegt in der Art der Texte. Die Wiki-Macher legen starken Wert darauf, dass sich in der Online-Enzyklopädie nur Artikel mit lexikalischem Interesse finden, das heißt es gibt eine lange Liste mit Relevanzkriterien (de.wikipedia.org/wiki/Wikipedia:Relevanzkriterien), die regeln, ob ein Thema "enzyklopädische Bedeutung" hat oder nicht. Das alles soll es bei Knol nicht geben. Alle Arten von Sachtexten sind erwünscht also explizit auch Anleitungen ("So bauen Sie ein Vogelhäuschen") oder Produktbeschreibungen ("Das neue Handy..."). Da ist die Grenze zur Werbung kaum zu ziehen, was auch einer der Hauptkritikpunkte an Knol ist: "Man wird dort schrecklich viele Artikel über Viagra sehen", macht sich Wikipedia-Gründer Jimmy Wales nicht ganz zu unrecht lustig. Der Hauptangriff gegen Wikipedia wird sein, dass Knol-Artikel auch in den Suchergebnissen von Google zu finden sein werden, sicher weit oben und an der Stelle, wo jetzt prominent die Wiki-Texte liegen. So wird es zu einer gewissen Verdrängung kommen. Umgekehrt hat Google aber angekündigt, dass die Knol-Texte auch für andere Suchmaschinen offen sind, hier also kein Zaun für die Konkurrenz entsteht. Von Knol wie gesagt gibt es nur einen Screenshot, der einen Entwurf eines Lexikonartikels zeigt. Neben dem schon erwähnten Autorenkasten, findet sich in Kopf eine Kurzfassung des Textes mit einer Reihe von Metainformationen. Das sind in erster Line ein Inhaltsverzeichnis sowie die Zahl der Sterne, der Kommentare und der Rezensionen. Der Text selbst (über Schlafstörungen) ist ansprechend gesetzt, verfügt über Fotos sowie Grafiken und zeigt am Ende weiterführende Bücher und Links.
    Der Autorenkasten zeigt die Berufsbezeichnung der Autorin, weitere Artikel von ihr, zum Thema passende Artikel und eben die Google-Werbung. Außerdem hat sich die Autorin dafür entschieden, den Artikel unter die Creative-Commons-Lizenz (CCL) zu stellen, so dass andere Autoren das Material unter bestimmten Einschränkungen, zum Beispiel die Nennung des Urhebers, weiter verwenden können. Ein Knot-Artikel könnte so auch bei Wikipedia landen. Ob die CCL eine Google-Vorgabe für alle Texte im Lexikon wird, ist noch nicht bekannt. Die Suche Die Wiki-Konkurrenz zu Google heißt Wikia-Search. Der Namensbestandteil Wikia verrät den Urheber des Projekts, denn es handelt sich nicht um die gemeinnützige WikimediaFoundation, die Betreiberin von Wikipedia, sondern um Wikia Inc., ein gewinnorientiertes Unternehmen des Wiki-Gründers Jimmy Wales. Die Anwender, die die Suchergebnisse von Wikia-Search verbessern, arbeiten also auch unbezahlt am Gewinn des Firmengründers mit. Seit YouTube ein weit verbreitetes Web-2.0-Phänomen. Die Wikia-Suche soll sich in erster Linie durch Offenheit zu Google unterscheiden. Das heißt, der Such- und Ranking-Algorithmus ist Open Source. Jeder kann wissen, warum seine Seite an welcher Position landet. Außerdem soll es Programmierschnittstellen (APIs) geben. Das ist nicht nur für die ehrlichen Webmaster gut, sondern auch für Spammer, denen Wikia die Manipulation erleichtert. Wie der Betreiber dagegen vorgehen will, dazu gibt es noch keine Aussagen. Eine gewisse Kontrolle werden die Anwender ausüben, die die Ergebnisse bewerten können. So wandert Spam schnell nach unten und die guten Resultate nach oben.
    Die Teilnahme der Anwender erfolgt über zwei Werkzeuge. Einmal gibt es die Miniartikel, die ein Suchwort kurz erklären oder verschiedene Bedeutungen eines Begriffs aufzeigen. Dieses Wissen soll die Suchmaschine einmal verwenden, um die Suchergebnisse in einen besseren Kontext zu binden (handelt es sich um den britischen oder den afrikanischen Jaguar?). Ferner kann jeder Suchende bis zu fünf Sternchen für einzelne Treffer vergeben. Das soll künftig ebenfalls das Ergebnis beeinflussen und verbessern. Wie man sieht, sind die interessanten und Erfolg versprechenden Funktionen bislang noch abgeschaltet. Weiter beachtenswert ist bei Wikia die Möglichkeit, den Index zu wechseln. Für viele lexikalische Suchen eignet sich die White List, die nur eine zwar lange, aber festgelegte Liste von Seiten durchsucht. Spam ist dabei fast ausgeschlossen, während die Treffer zwar nicht allumfassend sind, aber eine hohe Relevanz besitzen. Sowohl Wikia als auch Knol sehen nach viel versprechenden Neuansätzen aus und beide haben eins gemeinsam: Sie bringen frischen Wind in festgefügte Strukturen, denn sowohl dem allmächtigen Google als auch der selbstherrlichen Wikipedia kann ein bisschen Konkurrenz nicht schaden."
  10. Karzauninkat, S.: ¬Die Suchfibel : Wie findet man Informationen im Internet? (1998) 0.04
    0.035302117 = product of:
      0.21181269 = sum of:
        0.21181269 = weight(_text_:suchmaschine in 3892) [ClassicSimilarity], result of:
          0.21181269 = score(doc=3892,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.9995404 = fieldWeight in 3892, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=3892)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine (21)
    Internet / Suchmaschine / CD-ROM (213)
    Subject
    Internet / Suchmaschine (21)
    Internet / Suchmaschine / CD-ROM (213)
  11. Friedrich, H.: Cross Database Search - Datenbankübergreifende Suche (2001) 0.03
    0.034874562 = product of:
      0.10462368 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 165) [ClassicSimilarity], result of:
          0.09266805 = score(doc=165,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=165)
        0.011955633 = product of:
          0.035866898 = sum of:
            0.035866898 = weight(_text_:29 in 165) [ClassicSimilarity], result of:
              0.035866898 = score(doc=165,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.27205724 = fieldWeight in 165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=165)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Zentralstelle für Agrardokumentation und -information (ZADI) entwickelt derzeit eine Multi-Host-Suchmaschine (MHS) zur simultanen Suche in mehreren, an unterschiedlichen Orten befindlichen Datenbanken. Erste Anwendungen der Technologie befinden sich in einem Prototypen des Bundesinformationssystems Genetische Ressourcen (BIG) sowie in einer Multi-Host-Literatursuchmaschine der Food and Agriculture Organization (FAO) der Vereinten Nationen im Test. Der Beitrag stellt Notwendigkeit und Anforderungen dar und erörtert zur Problemlösung eingesetzte Methoden. Die implementierte Funktionalität wird anhand des für die FAO entwickelten Prototypen zur Literatursuche erläutert
    Date
    20. 1.2002 18:42:29
  12. Hehl, H.: Änderungen und Erweiterungen im Multisuchsystem E-Connect (2000) 0.03
    0.034838714 = product of:
      0.10451613 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 5552) [ClassicSimilarity], result of:
          0.09266805 = score(doc=5552,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 5552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5552)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 5552) [ClassicSimilarity], result of:
              0.03554425 = score(doc=5552,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 5552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5552)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das in dieser Zeitschrift bereits vorgestellte Multisuchsystem E-Connect hat mittlerweile einige äußere und innere Anderungen und Erweiterungen erfahren. Abbildung 1 zeigt das Suchformular für die Suche in mehreren allgemeinen Aufsatz- und Verlagsdatenbanken. Ein entsprechendes Suchformular für die Suche nach Zeitschriftenaufsätzen mehrerer bzw. einzelner Fachgebiete ist ähnlich aufgebaut und enthält u. a. den vereinfachten Zugang zu dem fachlich den gesamten STIVI-Bereich umfassenden EnergyPortal Search und zu weiteren Datenbanken von elektronischen Aufsätzen, Reports und Preprints. Von der Startseite aus kann man jetzt auch über eine Suchmaschine sowohl die im Multisuchsystem als auch die in den Bibliographischen Datenbanken im Internet enthaltenen etwa 160 Datenbanken suchen und anwählen. Damit ist eine Art von digitaler Bibliothek entstanden, die vor allem elektronisch verfügbare Dokumente erschließt
    Date
    26.12.2000 10:25:22
  13. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.03
    0.032217465 = product of:
      0.09665239 = sum of:
        0.084804304 = weight(_text_:ranking in 1319) [ClassicSimilarity], result of:
          0.084804304 = score(doc=1319,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 1319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.03554425 = score(doc=1319,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Keyword based querying has been an immediate and efficient way to specify and retrieve related information that the user inquired. However, conventional document ranking based on an automatic assessment of document relevance to the query may not be the best approach when little information is given. Proposes an idea to integrate 2 existing techniques, query expansion and relevance feedback to achieve a concept-based information search for the Web
    Date
    1. 8.1996 22:08:06
  14. Hsieh-Yee, I.: ¬The retrieval power of selected search engines : how well do they address general reference questions and subject questions? (1998) 0.03
    0.032217465 = product of:
      0.09665239 = sum of:
        0.084804304 = weight(_text_:ranking in 2186) [ClassicSimilarity], result of:
          0.084804304 = score(doc=2186,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 2186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2186)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 2186) [ClassicSimilarity], result of:
              0.03554425 = score(doc=2186,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 2186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2186)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Evaluates the performance of 8 major Internet search engines in answering 21 real reference questions and 5 made up subject questions. Reports on the retrieval and relevancy ranking abilities of the search engines. Concludes that the search engines did not produce good results for the reference questions unlike for the subject questions. The best engines are identified by type of questions, with Infoseek best for the subject questions, and OpenText best for refrence questions
    Date
    25.12.1998 19:22:51
  15. Gilster, P.: Suchen und Finden im Internet (1997) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 5632) [ClassicSimilarity], result of:
          0.18721774 = score(doc=5632,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 5632, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=5632)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine (21)
    Subject
    Internet / Suchmaschine (21)
  16. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1999) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 3895) [ClassicSimilarity], result of:
          0.18721774 = score(doc=3895,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 3895, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=3895)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine (21)
    Subject
    Internet / Suchmaschine (21)
  17. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1997) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 672) [ClassicSimilarity], result of:
          0.18721774 = score(doc=672,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 672, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=672)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine (21)
    Subject
    Internet / Suchmaschine (21)
  18. Internet Archive : Neue Zeit-Suchmaschine (2003) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 2257) [ClassicSimilarity], result of:
          0.18721774 = score(doc=2257,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 2257, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=2257)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Internet Archive hat eine neue Suchmaschine namens Recall entwickelt, mit der über 11 Milliarden archivierte Webseiten durchsucht werden können. Da jedem Begriff Themen und Kategorien zugeordnet sind, kann der Anwender seine Suche noch weiter spezifizieren. Aktuell sind rund 50.000 Kategorien mit insgesamt 1,4 Millionen Suchbegriffen erfasst
  19. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.03
    0.029861754 = product of:
      0.08958526 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 3397) [ClassicSimilarity], result of:
          0.07942976 = score(doc=3397,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 3397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=3397)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.030466499 = score(doc=3397,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
  20. Menczer, F.: Lexical and semantic clustering by Web links (2004) 0.03
    0.027645696 = product of:
      0.082937084 = sum of:
        0.0726894 = weight(_text_:ranking in 3090) [ClassicSimilarity], result of:
          0.0726894 = score(doc=3090,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 3090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=3090)
        0.010247685 = product of:
          0.030743055 = sum of:
            0.030743055 = weight(_text_:29 in 3090) [ClassicSimilarity], result of:
              0.030743055 = score(doc=3090,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 3090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3090)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Recent Web-searching and -mining tools are combining text and link analysis to improve ranking and crawling algorithms. The central assumption behind such approaches is that there is a correiation between the graph structure of the Web and the text and meaning of pages. Here I formalize and empirically evaluate two general conjectures drawing connections from link information to lexical and semantic Web content. The link-content conjecture states that a page is similar to the pages that link to it, and the link-cluster conjecture that pages about the same topic are clustered together. These conjectures are offen simply assumed to hold, and Web search tools are built an such assumptions. The present quantitative confirmation sheds light an the connection between the success of the latest Web-mining techniques and the small world topology of the Web, with encouraging implications for the design of better crawling algorithms.
    Date
    9. 1.2005 19:20:29

Years

Languages

Types

  • a 681
  • m 77
  • s 28
  • el 19
  • x 6
  • r 3
  • i 2
  • b 1
  • More… Less…

Subjects

Classifications