Search (135 results, page 1 of 7)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  1. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.05
    0.048462316 = product of:
      0.09692463 = sum of:
        0.08776132 = weight(_text_:methode in 3068) [ClassicSimilarity], result of:
          0.08776132 = score(doc=3068,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.009163312 = product of:
          0.027489934 = sum of:
            0.027489934 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.027489934 = score(doc=3068,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Source
    Young information scientists. 1(2016), S.13-29
  2. Mayer, K.: Zur Soziometrik der Suchmaschinen : ein historischer Überblick der Methodik (2009) 0.04
    0.043439638 = product of:
      0.17375855 = sum of:
        0.17375855 = weight(_text_:methode in 19) [ClassicSimilarity], result of:
          0.17375855 = score(doc=19,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.68744826 = fieldWeight in 19, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0546875 = fieldNorm(doc=19)
      0.25 = coord(1/4)
    
    Abstract
    Der vorliegende Text rekonstruiert die wechselvolle Geschichte einer Methode, die allen heutigen Suchmaschinen zugrunde liegt: Die Bestimmung der Autorität eines Datensatzes über seine Verlinkung - und die mit dieser Methode verbundenen sozialen Visionen. Ausgehend von Referenzen, die die Konstrukteure der Suchmaschinen selbst zur historischen Verankerung ihrer Techniken angeben, folge ich multiplen Spuren auf der Suche nach der so vorgenommenen Bestimmung von Autorität. Ich werde fündig in Konzepten zu sozialen Beziehungen und deren Wandel zu soziotechnischen Kommunikationen, die heute selbstverständlich erscheinen.
  3. ¬Der Erfolg von Google (2003) 0.04
    0.038769852 = product of:
      0.077539705 = sum of:
        0.070209056 = weight(_text_:methode in 1407) [ClassicSimilarity], result of:
          0.070209056 = score(doc=1407,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.27777103 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.03125 = fieldNorm(doc=1407)
        0.0073306495 = product of:
          0.021991948 = sum of:
            0.021991948 = weight(_text_:29 in 1407) [ClassicSimilarity], result of:
              0.021991948 = score(doc=1407,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.15546128 = fieldWeight in 1407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1407)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
    Date
    29. 1.1997 18:49:05
  4. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.03
    0.03423889 = product of:
      0.06847778 = sum of:
        0.062056623 = weight(_text_:methode in 2324) [ClassicSimilarity], result of:
          0.062056623 = score(doc=2324,freq=4.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.24551722 = fieldWeight in 2324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2324)
        0.0064211525 = product of:
          0.019263458 = sum of:
            0.019263458 = weight(_text_:22 in 2324) [ClassicSimilarity], result of:
              0.019263458 = score(doc=2324,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.13679022 = fieldWeight in 2324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2324)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    SUCHMETHODE PageRank Technologie nennen die Google-Gründer ihre Such-Methode. Nach der Eingabe eines Suchbegriffes werden die 3 Milliarden Webseiten, die Google erreichen kann, damit verglichen. Der Kern der Such-Methode ist dabei, dass Google einen Link von der Seite A zu Seite B als ein "Votum" von der Seite A zu Seite B wertet. Wer also auf seiner Webseite mit einem Link eine andere Seite empfiehlt bzw. darauf verweist, verändert den Stellenwert einer Seite in der Google-Liste. Allerdings verlässt sich Google nicht allein auf die Voten anderer Seiten. Mitarbeiter des Anbieters schätzen die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Ein Beispiel für die Manipulierbarkeit von Google: Wer im weltweiten Netz "miserable failure" ("erbärmlicher Versager") eingibt, landet bei der Biografie von George W. Bush. Zahlreiche Webmaster haben also einen Link zum Weißen Haus gesetzt und und mit dem Suchnamen "miserable failure" unterlegt.
    Date
    3. 5.1997 8:44:22
    13. 6.2004 14:34:22
  5. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.02
    0.024849942 = product of:
      0.049699884 = sum of:
        0.035104528 = weight(_text_:methode in 4871) [ClassicSimilarity], result of:
          0.035104528 = score(doc=4871,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.13888551 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.014595355 = product of:
          0.021893032 = sum of:
            0.010995974 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
              0.010995974 = score(doc=4871,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.07773064 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
            0.010897058 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.010897058 = score(doc=4871,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Content
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
  6. Sauer, D.: Alles schneller finden (2001) 0.02
    0.022039762 = product of:
      0.08815905 = sum of:
        0.08815905 = product of:
          0.13223857 = sum of:
            0.077753276 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.077753276 = score(doc=6835,freq=4.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.05448529 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.05448529 = score(doc=6835,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  7. Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009) 0.02
    0.02194033 = product of:
      0.08776132 = sum of:
        0.08776132 = weight(_text_:methode in 22) [ClassicSimilarity], result of:
          0.08776132 = score(doc=22,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.34721377 = fieldWeight in 22, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.0390625 = fieldNorm(doc=22)
      0.25 = coord(1/4)
    
    Abstract
    Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
  8. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.02
    0.018244194 = product of:
      0.072976775 = sum of:
        0.072976775 = product of:
          0.10946516 = sum of:
            0.05497987 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.05497987 = score(doc=6566,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.05448529 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.05448529 = score(doc=6566,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    22. 2.1997 19:50:29
  9. Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004) 0.02
    0.017552264 = product of:
      0.070209056 = sum of:
        0.070209056 = weight(_text_:methode in 3036) [ClassicSimilarity], result of:
          0.070209056 = score(doc=3036,freq=2.0), product of:
            0.25275874 = queryWeight, product of:
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.040214643 = queryNorm
            0.27777103 = fieldWeight in 3036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.285241 = idf(docFreq=223, maxDocs=44218)
              0.03125 = fieldNorm(doc=3036)
      0.25 = coord(1/4)
    
    Content
    "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."
  10. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.014595355 = product of:
      0.05838142 = sum of:
        0.05838142 = product of:
          0.08757213 = sum of:
            0.043983895 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.043983895 = score(doc=997,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.043588232 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.043588232 = score(doc=997,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    29. 9.2002 18:49:22
  11. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.01
    0.014595355 = product of:
      0.05838142 = sum of:
        0.05838142 = product of:
          0.08757213 = sum of:
            0.043983895 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.043983895 = score(doc=1770,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.043588232 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.043588232 = score(doc=1770,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
  12. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.01
    0.007705384 = product of:
      0.030821536 = sum of:
        0.030821536 = product of:
          0.0924646 = sum of:
            0.0924646 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.0924646 = score(doc=3227,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  13. Höfer, W.: Detektive im Web (1999) 0.01
    0.007705384 = product of:
      0.030821536 = sum of:
        0.030821536 = product of:
          0.0924646 = sum of:
            0.0924646 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.0924646 = score(doc=4007,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 20:22:06
  14. Rensman, J.: Blick ins Getriebe (1999) 0.01
    0.007705384 = product of:
      0.030821536 = sum of:
        0.030821536 = product of:
          0.0924646 = sum of:
            0.0924646 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.0924646 = score(doc=4009,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 21:22:59
  15. Kiefer, A.: ¬Die Googlewhacker (2002) 0.01
    0.0072976775 = product of:
      0.02919071 = sum of:
        0.02919071 = product of:
          0.043786064 = sum of:
            0.021991948 = weight(_text_:29 in 262) [ClassicSimilarity], result of:
              0.021991948 = score(doc=262,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.15546128 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.021794116 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.021794116 = score(doc=262,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.15476047 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    20. 3.2002 10:28:22
    Source
    Frankfurter Rundschau. Nr.66 vom 19.3.2002, S.29
  16. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.01
    0.0072647054 = product of:
      0.029058821 = sum of:
        0.029058821 = product of:
          0.087176464 = sum of:
            0.087176464 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.087176464 = score(doc=4686,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    27.11.2005 18:04:22
  17. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.006601685 = product of:
      0.02640674 = sum of:
        0.02640674 = product of:
          0.03961011 = sum of:
            0.01649396 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.01649396 = score(doc=3080,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
            0.02311615 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.02311615 = score(doc=3080,freq=4.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    Date
    24. 8.2016 9:29:24
  18. tw: Power-Sucher für Power-Surfer : Fireball (1997) 0.01
    0.006414318 = product of:
      0.025657272 = sum of:
        0.025657272 = product of:
          0.076971814 = sum of:
            0.076971814 = weight(_text_:29 in 357) [ClassicSimilarity], result of:
              0.076971814 = score(doc=357,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5441145 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    1. 8.1997 14:03:29
  19. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.0063854675 = product of:
      0.02554187 = sum of:
        0.02554187 = product of:
          0.038312804 = sum of:
            0.019242954 = weight(_text_:29 in 1333) [ClassicSimilarity], result of:
              0.019242954 = score(doc=1333,freq=2.0), product of:
                0.14146253 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.040214643 = queryNorm
                0.13602862 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
            0.01906985 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.01906985 = score(doc=1333,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    5. 1.1997 9:39:22
    6. 2.2009 10:29:08
  20. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.01
    0.006356617 = product of:
      0.025426468 = sum of:
        0.025426468 = product of:
          0.0762794 = sum of:
            0.0762794 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.0762794 = score(doc=4224,freq=2.0), product of:
                0.14082482 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040214643 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Date
    3. 5.1997 8:44:22

Years

Types

  • a 119
  • m 7
  • el 6
  • x 3
  • p 2
  • r 1
  • More… Less…

Classifications