Search (259 results, page 1 of 13)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.28
    0.27503294 = product of:
      0.5500659 = sum of:
        0.057991527 = product of:
          0.17397457 = sum of:
            0.17397457 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.17397457 = score(doc=2514,freq=2.0), product of:
                0.30955335 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036512498 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.24603719 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.24603719 = score(doc=2514,freq=4.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.24603719 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.24603719 = score(doc=2514,freq=4.0), product of:
            0.30955335 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036512498 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.04
    0.04312958 = product of:
      0.12938873 = sum of:
        0.076381885 = weight(_text_:forschung in 1770) [ClassicSimilarity], result of:
          0.076381885 = score(doc=1770,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.05300685 = product of:
          0.07951027 = sum of:
            0.039934754 = weight(_text_:29 in 1770) [ClassicSimilarity], result of:
              0.039934754 = score(doc=1770,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
            0.039575513 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.039575513 = score(doc=1770,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Date
    23.10.1996 17:26:29
    22. 3.2008 14:04:11
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  3. Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022) 0.03
    0.029897824 = product of:
      0.08969347 = sum of:
        0.076381885 = weight(_text_:forschung in 630) [ClassicSimilarity], result of:
          0.076381885 = score(doc=630,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.43000343 = fieldWeight in 630, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=630)
        0.013311585 = product of:
          0.039934754 = sum of:
            0.039934754 = weight(_text_:29 in 630) [ClassicSimilarity], result of:
              0.039934754 = score(doc=630,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=630)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    28. 1.2022 11:05:29
  4. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.02
    0.02380183 = product of:
      0.071405485 = sum of:
        0.057286415 = weight(_text_:forschung in 389) [ClassicSimilarity], result of:
          0.057286415 = score(doc=389,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.014119069 = product of:
          0.042357206 = sum of:
            0.042357206 = weight(_text_:29 in 389) [ClassicSimilarity], result of:
              0.042357206 = score(doc=389,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.3297832 = fieldWeight in 389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Date
    13. 5.2007 10:29:29
  5. dpa: Microsoft will aufholen : Viel Geld für Angriff auf Google (2006) 0.02
    0.018661194 = product of:
      0.05598358 = sum of:
        0.04773868 = weight(_text_:forschung in 4052) [ClassicSimilarity], result of:
          0.04773868 = score(doc=4052,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 4052, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4052)
        0.0082449 = product of:
          0.024734698 = sum of:
            0.024734698 = weight(_text_:22 in 4052) [ClassicSimilarity], result of:
              0.024734698 = score(doc=4052,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.19345059 = fieldWeight in 4052, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4052)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Microsoft greift für den Angriff auf Suchmaschinen-Marktführer Google noch tiefer in die Tasche. Die Ausgaben für das Online-Anzeigengeschäft, das MSN-Portal und neue Suchtechnologien werden im Geschäftsjahr, das im Juli startet, um 60 Prozent auf 1,6 Milliarden Dollar aufgestockt, wie Konzernchef Steve Ballmer ankündigt. Allein 1,1 Milliarden Dollar davon gingen in Forschung und Entwicklung. Microsoft sei im Markt für Online-Suche sehr ernsthaft engagiert, sagt Ballmer. "Nur zwei bis drei Unternehmen können wirklich die Infrastruktur liefern, die mit den Anforderungen der Konsumenten und Anzeigenkunden Schritt halten kann." Derzeit dominiert der weltgrößte Suchmaschinenbetreiber Google diesen Markt mit Abstand. Allein in den USA laufen nach Angaben von Nielsen Net-Rating 49 Prozent aller Suchanfragen über Google. Microsofts MSN Search rangiert derzeit mit knapp elf Prozent an dritter Stelle, noch hinter Yahoo mit gut 22 Prozent der Suchanfragen. Zudem will Microsoft ein bisher noch weitgehend unerschlossenes Geschäftsgebiet besetzen: Werbung in Videospielen. Dazu übernimmt der weltgrößte Softwarekonzern die darauf spezialisierte Firma Massive, bestätigt der für die Spielekonsole Xbox zuständige Microsoft-Manager Robbie Bach. Die in New York ansässige Firma mit derzeit rund 80 Beschäftigten hat Verträge unter anderem mit führenden Spiele-Produzenten wie THQ und Konami."
  6. epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017) 0.02
    0.018661194 = product of:
      0.05598358 = sum of:
        0.04773868 = weight(_text_:forschung in 3815) [ClassicSimilarity], result of:
          0.04773868 = score(doc=3815,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 3815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.0082449 = product of:
          0.024734698 = sum of:
            0.024734698 = weight(_text_:22 in 3815) [ClassicSimilarity], result of:
              0.024734698 = score(doc=3815,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.19345059 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
    Date
    22. 7.2004 9:42:33
  7. FR: Google für Wissenschaftler (2004) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 1977) [ClassicSimilarity], result of:
          0.09547736 = score(doc=1977,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.16666667 = coord(1/6)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  8. Meister, M.: Europa sucht Alternativen : Projekt kommt nicht voran (2006) 0.01
    0.014928955 = product of:
      0.044786863 = sum of:
        0.038190942 = weight(_text_:forschung in 1709) [ClassicSimilarity], result of:
          0.038190942 = score(doc=1709,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=1709)
        0.006595919 = product of:
          0.019787757 = sum of:
            0.019787757 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.019787757 = score(doc=1709,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15476047 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Es soll der "Airbus von morgen" werden. Mit diesen Worten hat Frankreichs Staatspräsident Jacques Chirac das deutsch-französische Projekt einer gemeinsamen europäischen Suchmaschine angekündigt, mit der man dem US-Riesen Google Konkurrenz machen will. Das deutsch-französische Kind wurde Quaero getauft. Kein ganz einfacher Name für ein Produkt, das einen weltweiten Marktführer verdrängen soll, der so allgegenwärtig und dominant ist, dass der Begriff "googeln" längst in unsere Sprache Eingang gefunden hat und im Duden verzeichnet ist. Quaero heißt auf Lateinisch "Ich suche". Das klingt nach europäischem Bildengsdünkel und spiegelt zudem den gegenwärtigen Zustand des Projektes gut wider. Gesucht wurde in Deutschland lange nach kompetenten Industriepartnern und gemeinsam mit den Franzosen nach einer Technologie, welche die Möglichkeiten einer herkömmlichen Recherche, wie man sie bei Google, Yahoo oder MSN Search machen kann, bei weitem überschreiten würde. Denn anstatt mittels bestimmter Suchbegriffe bloß Texte im Netz aufzuspüren, soll Quaero eine multimediale Suchmaschine werden, die auch Bilder, Filme und Audiodateien aufspürt. Die Quaero-Initiative ist Teil von Frankreichs Kampf gegen amerikanische Kulturhegonomie. Mit Googles Ankündigung, bis 2015 rund 15 Millionen Bücher zu digitalisieren und über "Google Print" online zugänglich zu machen, begann der Widerstand. Wortführer des Protestes und Initiator ist Jean-Noel Jeanneney, Direktor der französischen Nationalbibliothek. Sollte das literarische Erbe Europas von einem US-Konzern digital verwaltet werden, so Jeanneneys Begründung, drohe eine Hierarchisierung und Ordnung des Wissens nach rein kommerziellen Gesichtspunkten und aus einer einzig amerikanischen Perspektive. Neben den Marktführern Google, Yahoo und MSN Search, die 90 Prozent Marktanteil haben, existieren viele weitere Suchmaschinen im Internet. Auch das Portal Accoona.eu, das in sieben EU-Sprachen arbeitet, will Google Konkurrenz machen. Aber selbst Branchenriesen scheitern daran seit Jahren. Google investiert 400 Millionen Dollar jährlich in Forschung und Entwicklung. Bislang sucht der Internetnutzer vergeblich nach Quaero. Wer sich ein erstes Bild machen will, landet auf der Webseite einer amerikanischen Firma. Der Domainname Quaero.com ist nämlich schon vergeben. Quaero.org ist bislang passwortgeschützt. Sollte sich Quaero tatsächlich als der "Airbus von morgen" erweisen, könnte auch diesem deutsch-französischen Projekt schnell der Absturz drohen."
    Date
    12. 2.1996 22:34:46
  9. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.01
    0.013839613 = product of:
      0.041518837 = sum of:
        0.038190942 = weight(_text_:forschung in 3635) [ClassicSimilarity], result of:
          0.038190942 = score(doc=3635,freq=8.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 3635, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0033278964 = product of:
          0.009983689 = sum of:
            0.009983689 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.009983689 = score(doc=3635,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Date
    11. 2.2006 20:15:29
  10. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.01
    0.013502537 = product of:
      0.08101522 = sum of:
        0.08101522 = weight(_text_:forschung in 5741) [ClassicSimilarity], result of:
          0.08101522 = score(doc=5741,freq=4.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.45608753 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.16666667 = coord(1/6)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
  11. Web search engine research (2012) 0.01
    0.013502537 = product of:
      0.08101522 = sum of:
        0.08101522 = weight(_text_:forschung in 478) [ClassicSimilarity], result of:
          0.08101522 = score(doc=478,freq=4.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.45608753 = fieldWeight in 478, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=478)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Subject
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
  12. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.01
    0.013502537 = product of:
      0.08101522 = sum of:
        0.08101522 = weight(_text_:forschung in 5022) [ClassicSimilarity], result of:
          0.08101522 = score(doc=5022,freq=4.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.45608753 = fieldWeight in 5022, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
  13. Sauer, D.: Alles schneller finden (2001) 0.01
    0.013340527 = product of:
      0.08004316 = sum of:
        0.08004316 = product of:
          0.120064735 = sum of:
            0.07059534 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.07059534 = score(doc=6835,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.049469396 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.049469396 = score(doc=6835,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  14. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.01
    0.011900915 = product of:
      0.035702743 = sum of:
        0.028643208 = weight(_text_:forschung in 851) [ClassicSimilarity], result of:
          0.028643208 = score(doc=851,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.16125129 = fieldWeight in 851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.0070595345 = product of:
          0.021178603 = sum of:
            0.021178603 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
              0.021178603 = score(doc=851,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.1648916 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
    Series
    Forschung und Gesellschaft
  15. Siebenlist, T.: MEMOSE. Spezialsuchmaschine für emotional geladene Dokumente (2012) 0.01
    0.011139026 = product of:
      0.06683415 = sum of:
        0.06683415 = weight(_text_:forschung in 175) [ClassicSimilarity], result of:
          0.06683415 = score(doc=175,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.376253 = fieldWeight in 175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=175)
      0.16666667 = coord(1/6)
    
    Abstract
    Einige Inhalte von Multimedia-Dokumenten (Bilder, Musikstücke, Videos) stellen Emotionen dar oder können Emotionen beim Benutzer auslösen. Das Ziel des emotionalen Information Retrieval (EmIR) und insbesondere unserer Forschung ist es, dieses emotionale Wissen in den Dokumenten zu identifizieren und es in einer neuen Art von webbasiertem Informationsdienst nutzbar zu machen. In diesem Artikel wird eine Spezialsuchmaschine namens MEMOSE (Media Emotion Search) vorgestellt, deren Aufgabe die emotionale Indexierung sowie das emotionale Retrieval von Multimedia-Dokumenten ist. Neben einer Beschreibung der Komponenten und deren Funktionsweise werden Ergebnisse der Evaluation eines ersten Prototypen kurz vorgestellt und ein Ausblick auf die weitere Entwicklung gegeben.
  16. Griesbaum, J.: Online Marketing : Ein Lehr- und Forschungsgebiet der Informationswissenschaft? (2019) 0.01
    0.011139026 = product of:
      0.06683415 = sum of:
        0.06683415 = weight(_text_:forschung in 5418) [ClassicSimilarity], result of:
          0.06683415 = score(doc=5418,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.376253 = fieldWeight in 5418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
      0.16666667 = coord(1/6)
    
    Content
    Lesen Sie in der nächsten Folge: Online Marketing und Lehre - Online Marketing und Forschung.
  17. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.01
    0.011043094 = product of:
      0.066258565 = sum of:
        0.066258565 = product of:
          0.09938784 = sum of:
            0.049918443 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.049918443 = score(doc=6566,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.049469396 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.049469396 = score(doc=6566,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
  18. Lewandowski, D.: Web Information Retrieval (2005) 0.01
    0.011024776 = product of:
      0.06614865 = sum of:
        0.06614865 = weight(_text_:forschung in 4028) [ClassicSimilarity], result of:
          0.06614865 = score(doc=4028,freq=6.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.3723939 = fieldWeight in 4028, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.16666667 = coord(1/6)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
  19. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.0095477365 = product of:
      0.057286415 = sum of:
        0.057286415 = weight(_text_:forschung in 3183) [ClassicSimilarity], result of:
          0.057286415 = score(doc=3183,freq=8.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 3183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.16666667 = coord(1/6)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
  20. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.008834476 = product of:
      0.05300685 = sum of:
        0.05300685 = product of:
          0.07951027 = sum of:
            0.039934754 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.039934754 = score(doc=997,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.039575513 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.039575513 = score(doc=997,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 9.2002 18:49:22

Years

Languages

  • d 144
  • e 112
  • f 2
  • nl 1
  • More… Less…

Types

  • a 236
  • el 14
  • m 11
  • x 3
  • p 2
  • r 1
  • s 1
  • More… Less…