Search (98 results, page 1 of 5)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.03
    0.027093453 = product of:
      0.10837381 = sum of:
        0.042126335 = weight(_text_:darstellung in 3671) [ClassicSimilarity], result of:
          0.042126335 = score(doc=3671,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.2143097 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3671)
        0.06624748 = sum of:
          0.04942825 = weight(_text_:visualisierung in 3671) [ClassicSimilarity], result of:
            0.04942825 = score(doc=3671,freq=2.0), product of:
              0.21292302 = queryWeight, product of:
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.03546852 = queryNorm
              0.23214142 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.003155 = idf(docFreq=296, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
          0.016819231 = weight(_text_:22 in 3671) [ClassicSimilarity], result of:
            0.016819231 = score(doc=3671,freq=2.0), product of:
              0.12420471 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03546852 = queryNorm
              0.1354154 = fieldWeight in 3671, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3671)
      0.25 = coord(2/8)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
    Date
    3. 5.1997 8:44:22
  2. Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009) 0.03
    0.025414472 = product of:
      0.20331578 = sum of:
        0.20331578 = weight(_text_:diagramm in 25) [ClassicSimilarity], result of:
          0.20331578 = score(doc=25,freq=2.0), product of:
            0.32982147 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03546852 = queryNorm
            0.6164419 = fieldWeight in 25, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=25)
      0.125 = coord(1/8)
    
  3. Deep Search : Politik des Suchens jenseits von Google; Deep Search-Konferenz ; (Wien) : 2008.11.08; eine Veröffentlichung des World-Information Institute (2009) 0.02
    0.016942982 = product of:
      0.13554385 = sum of:
        0.13554385 = weight(_text_:diagramm in 15) [ClassicSimilarity], result of:
          0.13554385 = score(doc=15,freq=2.0), product of:
            0.32982147 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03546852 = queryNorm
            0.41096127 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
      0.125 = coord(1/8)
    
    Content
    - Macht Theo Röhle: Die Demontage der Gatekeeper: Relationale Perspektiven zur Macht der Suchmaschinen Bernhard Rieder: Demokratisierung der Suche? Von der Kritik zum gesellschaftlich orientierten Design Matteo Pasquinelli: Googles PageRank: Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens Konrad Becker: Die Macht der Klassifizierung: Abgründe des Wissens an den Klippen der Ordnung - Sichtbarkeit Richard Rogers: Zur Frage der Vergoogelung: Hin zu einer unkritisierbaren Maschine? Metahaven: Periphere Kräfte: Zur Relevanz von Marginalität in Netzwerken Lev Manovich: Auf den Spuren der globalen digitalen Kulturen: Kulturanalytik für Anfänger
  4. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.01
    0.008737763 = product of:
      0.06990211 = sum of:
        0.06990211 = product of:
          0.13980421 = sum of:
            0.13980421 = weight(_text_:visualisierung in 399) [ClassicSimilarity], result of:
              0.13980421 = score(doc=399,freq=4.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.6565951 = fieldWeight in 399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=399)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Theme
    Visualisierung
  5. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 1526) [ClassicSimilarity], result of:
          0.060180478 = score(doc=1526,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 1526, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1526)
      0.125 = coord(1/8)
    
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  6. Hoboken, J. van: Suchmaschinen-Gesetzgebung und die Frage der Ausdrucksfreiheit : Eine europäische Perspektive (2009) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 21) [ClassicSimilarity], result of:
          0.060180478 = score(doc=21,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 21, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=21)
      0.125 = coord(1/8)
    
    Abstract
    Eine typische Darstellung der Herausforderungen der Ausdrucksfreiheit im Zusammenhang mit Suchmaschinen beginnt mit einer Diskussion der Internet-Zensur in China und in anderen Ländern, die keine Tradition der Ausdrucksfreiheit und einer freien Presse haben. Daher ist die Unterdrückung von Suchergebnissen durch globale Suchmaschinenanbieter in China gut dokumentierte und Gegenstand breiter medialer Aufrnerksamkeit. Im europäischen Kontext ist die Debatte über die Implikationen der Ausdrucksfreiheit für gesetzliche Regelungen und Politiken im Zusammenhang mit Suchmaschinen dagegen weit weniger entwickelt. Dies ist bedauerlich, denn es gibt eine Reihe von Problemen, die eine solche Debatte rechtfertigen würden. Bevor ich diese Probleme im Einzelnen behandle, erscheint es nützlich, einige Beispiele voranzustellen. In den vergangenen zwei Jahren hat der argentinische Anwalt Martin Leguizamon Gerichtsbeschlüsse erwirkt, die es über hundert Menschen ermöglichten, Suchergebnisse von Google und Yahoo entfernen zu lassen Einige der Gerichtsbeschlüsse bezogen sich auf Suchergebnisse zu öffentlichen Funktionären. Doch wenn Demokratie und Ausdrucksfreiheit irgendetwas bedeuten sollen, dann ist wohl die Möglichkeit, sich über öffentliche Funktionäre zu informieren, eine Voraussetzung dafür. Google hat deshalb seine ablehnende Haltung gegenüber den argentinischen Gesetzen öffentlich kundgetan und gegen die Gerichtsbescheide Berufung eingelegt. Interessant ist in diesem Fall, dass Google dabei auf den Schutz Bezug nimmt, den es in Europa genießt. Doch leider ist diese Bezugnahme falsch. In den meisten europäischen Ländern erhalten Suchmaschinenanbieter keinen klaren gesetzlichen Schutz gegen Forderungen, aus den Suchergebnissen entfernt zu werden, und sie kämpfen mit ähnlichen Problemen wie in Argentinien.
  7. Rieder, B.: Demokratisierung der Suche? : von der Kritik zum gesellschaftlich orientierten Design (2009) 0.01
    0.0075225597 = product of:
      0.060180478 = sum of:
        0.060180478 = weight(_text_:darstellung in 24) [ClassicSimilarity], result of:
          0.060180478 = score(doc=24,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.30615672 = fieldWeight in 24, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0390625 = fieldNorm(doc=24)
      0.125 = coord(1/8)
    
    Abstract
    Seit die Techniker der Digital Equipment Company 1995 AltaVista einführten, die erste große Suchmaschine für das World Wide Web, hat sich vieles verändert. 2009 ist das Web die zentrale Plattform für alles, was mit Information und Kommunikation zu tun hat: es bietet Raum für eine Vielfalt von Aktivitäten und Vorgängen, die früher über zahlreiche verschiedene Kanäle verteilt waren. Mit 1,5 Milliarden Nutzern, mehr als einer Trillion Seiten und einer Palette von Services, die von der einfachen Darstellung von Text-basierter Information bis zu hoch entwickelten Applikationen und Multimedia-Technologien reichen, ist das Web der Gegenwart ein Informationsgigant und außerdem zentraler Bestandteil einer kapitalistischen Ökonomie, die sich von einem industriellen zu einem kognitiven Produktionsmodus entwickelt. Da das Web kein eigenes Index- oder Katalogsystem mitbringt, liegt es an den Suchmaschinen, die unübersichtliche Struktur des Web den Nutzern zu erschließen. Obwohl Suchmaschinen komplexe Werkzeuge sind, ist ihre Handhabung überraschend einfach: Eine aus einem oder mehreren Wörtern bestehende Suchanfrage führt zu einer geordneten Liste von Seiten, welche die angegebenen Begriffe enthalten. Es ist kein Wunder, dass Suchmaschinen zu den beliebtesten Internet-Diensten gehören.
  8. Wild, F.: Visuelle Verfahren im Information Retrieval (2005) 0.01
    0.0074895117 = product of:
      0.059916094 = sum of:
        0.059916094 = product of:
          0.11983219 = sum of:
            0.11983219 = weight(_text_:visualisierung in 3182) [ClassicSimilarity], result of:
              0.11983219 = score(doc=3182,freq=4.0), product of:
                0.21292302 = queryWeight, product of:
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.03546852 = queryNorm
                0.5627958 = fieldWeight in 3182, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.003155 = idf(docFreq=296, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Bislang wird dem Studium bestehender Verfahren in der Visualisierung des Document Retrieval von Suchmaschinen zu wenig Aufmerksamkeit geschenkt. Der vorliegende Beitrag widmet sich dem Studium von acht Systemen und Prototypen, um die best-practice-Auslese und die Identifikation erfolgsrelevanter Features und Element zu erleichtern. Er legt dazu ein Modell für das visuelle Information Retrieval in Suchmaschinen vor, beschreibt und analysiert die ausgewählten Verfahren und deduziert Herausforderungen für künftige Forschungen. Die wichtigsten Erkenntnisse dabei sind, dass zwar zu wenig integrale Systeme existieren, die den gesamten Retrievalprozess integriert visuell unterstützen, die vorhandenen aber bereits (trotz ihrer Unvollständigkeit) einen Ausweg aus der linearen Krise der Ergebnispräsentation textbasierter Suchmaschinen aufzeigen. Wenngleich noch nicht alle Informationsbedürfnisse von den untersuchten Verfahren erfüllt werden, so zeichnet sich doch ab, dass insbesondere durch die Innovation von Interaktions- und Manipulationsformen neue Wege beschritten werden, die sich auf Effektivität und Effizienz derRetrievalverfahren auswirken.
    Theme
    Visualisierung
  9. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.01
    0.007219421 = product of:
      0.028877685 = sum of:
        0.02407219 = weight(_text_:darstellung in 3684) [ClassicSimilarity], result of:
          0.02407219 = score(doc=3684,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.12246269 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0048054946 = product of:
          0.009610989 = sum of:
            0.009610989 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.009610989 = score(doc=3684,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.25 = coord(2/8)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Date
    22. 6.2005 9:52:00
  10. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.0060180477 = product of:
      0.04814438 = sum of:
        0.04814438 = weight(_text_:darstellung in 866) [ClassicSimilarity], result of:
          0.04814438 = score(doc=866,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.24492538 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
      0.125 = coord(1/8)
    
    Abstract
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.
  11. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.00
    0.0048054946 = product of:
      0.038443957 = sum of:
        0.038443957 = product of:
          0.07688791 = sum of:
            0.07688791 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.07688791 = score(doc=4686,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    27.11.2005 18:04:22
  12. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.00
    0.0045135356 = product of:
      0.036108285 = sum of:
        0.036108285 = weight(_text_:darstellung in 3183) [ClassicSimilarity], result of:
          0.036108285 = score(doc=3183,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.18369403 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.125 = coord(1/8)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
  13. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.00
    0.0042554024 = product of:
      0.03404322 = sum of:
        0.03404322 = weight(_text_:darstellung in 3635) [ClassicSimilarity], result of:
          0.03404322 = score(doc=3635,freq=4.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.1731884 = fieldWeight in 3635, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
      0.125 = coord(1/8)
    
    Abstract
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
  14. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.00
    0.0042474973 = product of:
      0.03397998 = sum of:
        0.03397998 = product of:
          0.06795996 = sum of:
            0.06795996 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.06795996 = score(doc=4872,freq=4.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    22. 6.2002 19:40:22
  15. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.004204808 = product of:
      0.033638462 = sum of:
        0.033638462 = product of:
          0.067276925 = sum of:
            0.067276925 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.067276925 = score(doc=3445,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    25. 8.2005 17:42:22
  16. Bawden, D.: Google and the universe of knowledge (2008) 0.00
    0.004204808 = product of:
      0.033638462 = sum of:
        0.033638462 = product of:
          0.067276925 = sum of:
            0.067276925 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
              0.067276925 = score(doc=844,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.5416616 = fieldWeight in 844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=844)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    7. 6.2008 16:22:20
  17. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.00
    0.0037612799 = product of:
      0.030090239 = sum of:
        0.030090239 = weight(_text_:darstellung in 1163) [ClassicSimilarity], result of:
          0.030090239 = score(doc=1163,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.15307836 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
      0.125 = coord(1/8)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
  18. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.00
    0.0037612799 = product of:
      0.030090239 = sum of:
        0.030090239 = weight(_text_:darstellung in 4730) [ClassicSimilarity], result of:
          0.030090239 = score(doc=4730,freq=2.0), product of:
            0.19656755 = queryWeight, product of:
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.03546852 = queryNorm
            0.15307836 = fieldWeight in 4730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.542029 = idf(docFreq=470, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
      0.125 = coord(1/8)
    
    Content
    Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
  19. Price, A.: Five new Danish subject gateways under development (2000) 0.00
    0.0030034343 = product of:
      0.024027474 = sum of:
        0.024027474 = product of:
          0.04805495 = sum of:
            0.04805495 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.04805495 = score(doc=4878,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    22. 6.2002 19:41:31
  20. Eggeling, T.; Kroschel, A.: Alles finden im Web (2000) 0.00
    0.0030034343 = product of:
      0.024027474 = sum of:
        0.024027474 = product of:
          0.04805495 = sum of:
            0.04805495 = weight(_text_:22 in 4884) [ClassicSimilarity], result of:
              0.04805495 = score(doc=4884,freq=2.0), product of:
                0.12420471 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03546852 = queryNorm
                0.38690117 = fieldWeight in 4884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4884)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    9. 7.2000 14:06:22

Languages

  • d 68
  • e 30

Types

  • a 86
  • m 7
  • el 4
  • x 3
  • s 1
  • More… Less…