Search (160 results, page 1 of 8)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.02
    0.02380183 = product of:
      0.071405485 = sum of:
        0.057286415 = weight(_text_:forschung in 389) [ClassicSimilarity], result of:
          0.057286415 = score(doc=389,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.014119069 = product of:
          0.042357206 = sum of:
            0.042357206 = weight(_text_:29 in 389) [ClassicSimilarity], result of:
              0.042357206 = score(doc=389,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.3297832 = fieldWeight in 389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Date
    13. 5.2007 10:29:29
  2. dpa: Microsoft will aufholen : Viel Geld für Angriff auf Google (2006) 0.02
    0.018661194 = product of:
      0.05598358 = sum of:
        0.04773868 = weight(_text_:forschung in 4052) [ClassicSimilarity], result of:
          0.04773868 = score(doc=4052,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.26875216 = fieldWeight in 4052, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4052)
        0.0082449 = product of:
          0.024734698 = sum of:
            0.024734698 = weight(_text_:22 in 4052) [ClassicSimilarity], result of:
              0.024734698 = score(doc=4052,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.19345059 = fieldWeight in 4052, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4052)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Microsoft greift für den Angriff auf Suchmaschinen-Marktführer Google noch tiefer in die Tasche. Die Ausgaben für das Online-Anzeigengeschäft, das MSN-Portal und neue Suchtechnologien werden im Geschäftsjahr, das im Juli startet, um 60 Prozent auf 1,6 Milliarden Dollar aufgestockt, wie Konzernchef Steve Ballmer ankündigt. Allein 1,1 Milliarden Dollar davon gingen in Forschung und Entwicklung. Microsoft sei im Markt für Online-Suche sehr ernsthaft engagiert, sagt Ballmer. "Nur zwei bis drei Unternehmen können wirklich die Infrastruktur liefern, die mit den Anforderungen der Konsumenten und Anzeigenkunden Schritt halten kann." Derzeit dominiert der weltgrößte Suchmaschinenbetreiber Google diesen Markt mit Abstand. Allein in den USA laufen nach Angaben von Nielsen Net-Rating 49 Prozent aller Suchanfragen über Google. Microsofts MSN Search rangiert derzeit mit knapp elf Prozent an dritter Stelle, noch hinter Yahoo mit gut 22 Prozent der Suchanfragen. Zudem will Microsoft ein bisher noch weitgehend unerschlossenes Geschäftsgebiet besetzen: Werbung in Videospielen. Dazu übernimmt der weltgrößte Softwarekonzern die darauf spezialisierte Firma Massive, bestätigt der für die Spielekonsole Xbox zuständige Microsoft-Manager Robbie Bach. Die in New York ansässige Firma mit derzeit rund 80 Beschäftigten hat Verträge unter anderem mit führenden Spiele-Produzenten wie THQ und Konami."
  3. FR: Google für Wissenschaftler (2004) 0.02
    0.015912894 = product of:
      0.09547736 = sum of:
        0.09547736 = weight(_text_:forschung in 1977) [ClassicSimilarity], result of:
          0.09547736 = score(doc=1977,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.5375043 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.16666667 = coord(1/6)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  4. Meister, M.: Europa sucht Alternativen : Projekt kommt nicht voran (2006) 0.01
    0.014928955 = product of:
      0.044786863 = sum of:
        0.038190942 = weight(_text_:forschung in 1709) [ClassicSimilarity], result of:
          0.038190942 = score(doc=1709,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=1709)
        0.006595919 = product of:
          0.019787757 = sum of:
            0.019787757 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.019787757 = score(doc=1709,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15476047 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1709)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Es soll der "Airbus von morgen" werden. Mit diesen Worten hat Frankreichs Staatspräsident Jacques Chirac das deutsch-französische Projekt einer gemeinsamen europäischen Suchmaschine angekündigt, mit der man dem US-Riesen Google Konkurrenz machen will. Das deutsch-französische Kind wurde Quaero getauft. Kein ganz einfacher Name für ein Produkt, das einen weltweiten Marktführer verdrängen soll, der so allgegenwärtig und dominant ist, dass der Begriff "googeln" längst in unsere Sprache Eingang gefunden hat und im Duden verzeichnet ist. Quaero heißt auf Lateinisch "Ich suche". Das klingt nach europäischem Bildengsdünkel und spiegelt zudem den gegenwärtigen Zustand des Projektes gut wider. Gesucht wurde in Deutschland lange nach kompetenten Industriepartnern und gemeinsam mit den Franzosen nach einer Technologie, welche die Möglichkeiten einer herkömmlichen Recherche, wie man sie bei Google, Yahoo oder MSN Search machen kann, bei weitem überschreiten würde. Denn anstatt mittels bestimmter Suchbegriffe bloß Texte im Netz aufzuspüren, soll Quaero eine multimediale Suchmaschine werden, die auch Bilder, Filme und Audiodateien aufspürt. Die Quaero-Initiative ist Teil von Frankreichs Kampf gegen amerikanische Kulturhegonomie. Mit Googles Ankündigung, bis 2015 rund 15 Millionen Bücher zu digitalisieren und über "Google Print" online zugänglich zu machen, begann der Widerstand. Wortführer des Protestes und Initiator ist Jean-Noel Jeanneney, Direktor der französischen Nationalbibliothek. Sollte das literarische Erbe Europas von einem US-Konzern digital verwaltet werden, so Jeanneneys Begründung, drohe eine Hierarchisierung und Ordnung des Wissens nach rein kommerziellen Gesichtspunkten und aus einer einzig amerikanischen Perspektive. Neben den Marktführern Google, Yahoo und MSN Search, die 90 Prozent Marktanteil haben, existieren viele weitere Suchmaschinen im Internet. Auch das Portal Accoona.eu, das in sieben EU-Sprachen arbeitet, will Google Konkurrenz machen. Aber selbst Branchenriesen scheitern daran seit Jahren. Google investiert 400 Millionen Dollar jährlich in Forschung und Entwicklung. Bislang sucht der Internetnutzer vergeblich nach Quaero. Wer sich ein erstes Bild machen will, landet auf der Webseite einer amerikanischen Firma. Der Domainname Quaero.com ist nämlich schon vergeben. Quaero.org ist bislang passwortgeschützt. Sollte sich Quaero tatsächlich als der "Airbus von morgen" erweisen, könnte auch diesem deutsch-französischen Projekt schnell der Absturz drohen."
    Date
    12. 2.1996 22:34:46
  5. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.01
    0.013839613 = product of:
      0.041518837 = sum of:
        0.038190942 = weight(_text_:forschung in 3635) [ClassicSimilarity], result of:
          0.038190942 = score(doc=3635,freq=8.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 3635, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0033278964 = product of:
          0.009983689 = sum of:
            0.009983689 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.009983689 = score(doc=3635,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Date
    11. 2.2006 20:15:29
  6. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.01
    0.013502537 = product of:
      0.08101522 = sum of:
        0.08101522 = weight(_text_:forschung in 5741) [ClassicSimilarity], result of:
          0.08101522 = score(doc=5741,freq=4.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.45608753 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.16666667 = coord(1/6)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
  7. Sauer, D.: Alles schneller finden (2001) 0.01
    0.013340527 = product of:
      0.08004316 = sum of:
        0.08004316 = product of:
          0.120064735 = sum of:
            0.07059534 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.07059534 = score(doc=6835,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.049469396 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.049469396 = score(doc=6835,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  8. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.01
    0.011900915 = product of:
      0.035702743 = sum of:
        0.028643208 = weight(_text_:forschung in 851) [ClassicSimilarity], result of:
          0.028643208 = score(doc=851,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.16125129 = fieldWeight in 851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=851)
        0.0070595345 = product of:
          0.021178603 = sum of:
            0.021178603 = weight(_text_:29 in 851) [ClassicSimilarity], result of:
              0.021178603 = score(doc=851,freq=4.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.1648916 = fieldWeight in 851, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=851)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    31.12.1996 19:29:41
    2. 8.2002 14:39:29
    Series
    Forschung und Gesellschaft
  9. Lewandowski, D.: Web Information Retrieval (2005) 0.01
    0.011024776 = product of:
      0.06614865 = sum of:
        0.06614865 = weight(_text_:forschung in 4028) [ClassicSimilarity], result of:
          0.06614865 = score(doc=4028,freq=6.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.3723939 = fieldWeight in 4028, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.16666667 = coord(1/6)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
  10. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.0095477365 = product of:
      0.057286415 = sum of:
        0.057286415 = weight(_text_:forschung in 3183) [ClassicSimilarity], result of:
          0.057286415 = score(doc=3183,freq=8.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.32250258 = fieldWeight in 3183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.16666667 = coord(1/6)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
  11. Lewandowski, D.: Alles nur noch Google? : Entwicklungen im Bereich der WWW-Suchmaschinen (2002) 0.01
    0.008834476 = product of:
      0.05300685 = sum of:
        0.05300685 = product of:
          0.07951027 = sum of:
            0.039934754 = weight(_text_:29 in 997) [ClassicSimilarity], result of:
              0.039934754 = score(doc=997,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.31092256 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
            0.039575513 = weight(_text_:22 in 997) [ClassicSimilarity], result of:
              0.039575513 = score(doc=997,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.30952093 = fieldWeight in 997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=997)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 9.2002 18:49:22
  12. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.01
    0.006365157 = product of:
      0.038190942 = sum of:
        0.038190942 = weight(_text_:forschung in 4093) [ClassicSimilarity], result of:
          0.038190942 = score(doc=4093,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=4093)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
  13. Summann, F.; Wolf, S.: Suchmaschinentechnologie und wissenschaftliche Suchumgebung : Warum braucht man eine wissenschaftliche Suchmaschine? (2006) 0.01
    0.006365157 = product of:
      0.038190942 = sum of:
        0.038190942 = weight(_text_:forschung in 5958) [ClassicSimilarity], result of:
          0.038190942 = score(doc=5958,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.21500172 = fieldWeight in 5958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=5958)
      0.16666667 = coord(1/6)
    
    Abstract
    Bereits seit längerem ist bekannt, dass Studierende und Wissenschaftler zur Informationsrecherche Internet-Suchmaschinen bevorzugen [Klatt 2001]. Wissenschaftlich relevante Internet-Seiten gehen aber in der Vielzahl der von Google, Yahoo & Co erfassten Seiten unter. In den riesigen Treffermengen allgemeiner Suchmaschinen sind wissenschaftliche Quellen über die umfangreichen Ergebnisseiten verstreut und zudem in der Trefferanzeige nur schwer als solche zu identifizieren. Internet-Suchmaschinen indexieren nur frei zugängliche Internet-Seiten (das sogenannte "Visible Web"). Inhalte aus wissenschaftlich relevanten Fach-, Volltext- und Verbunddatenbanken (das "Invisible Web"), werden bisher nicht erfasst oder zumindest nicht in den allgemeinen Index der Suchmaschinen integriert. Aber auch ein Teil des sichtbaren Webs bleibt für die Suchmaschinen unsichtbar. OAI-Server, die eigentlich zum "Visible Web" gehören, werden - wenn überhaupt - häufig nur unvollständig indexiert, was allerdings auch an der oftmals wenig suchmaschinenfreundlichen Aufbereitung der Inhalte auf diesen Servern liegt. Die gängigen Windows-Office-Dateiformate werden zwar von den allgemeinen Suchmaschinen inzwischen recht zuverlässig indexiert, eine Reihe von in Forschung und Lehre verwendeten Datenformate werden aber bisher von Internet-Suchmaschinen nicht berücksichtigt (z.B. LaTex, OpenOffice). Unabhängig vom Dateiformat gibt es eine Grenze bei der Indexierung besonders großer Dateien. Dateien werden nur bis zu einer Größe von etwa 800 KB vollständig indexiert. Alle Inhalte, die in einer Datei über diesem Limit liegen, werden nicht mehr indexiert, was sich bei umfangreichen Volltexten negativ bemerkbar macht. Um alle relevanten Informationen zu einem Thema zusammentragen zu können, müssen Informationsrecherchen daher sowohl in Suchmaschinen als auch in Fachdatenbanken durchgeführt werden. Recherchen in den Datenbanken des "Invisible Web" erbringen zwar hochwertige Ergebnisse, dauern oft aber vergleichsweise lange. Die Antwortzeiten von Metasuchumgebungen, die ihre Suchanfragen über das Z39.50-Protokoll oder per HTTP an eine Vielzahl von Zieldatenbanken weiterreichen und anschließend die Ergebnisse zusammenführen, sind um ein Vielfaches höher als die der Internet-Suchmaschinen. Häufig ist auch die Hardwareausstattung der Zielserver nicht ausreichend oder die Lizenzverträge der Herstellerfirmen lassen nur eine begrenzte Anzahl gleichzeitiger User zu. Die Bielefeld Academic Search Engine (BASE) vereinigt die Vorteile von Suchmaschinen (einfache Nutzung, schnelle Antwortzeiten, Relevanzbewertung) und Datenbanken (Berücksichtigung bibliographischer Suchaspekte, hohe Qualität der Quellen).
  14. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.005569513 = product of:
      0.033417076 = sum of:
        0.033417076 = weight(_text_:forschung in 5912) [ClassicSimilarity], result of:
          0.033417076 = score(doc=5912,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.1881265 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.16666667 = coord(1/6)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  15. Perez, E.: dtSearch: the little search engine that could (2004) 0.00
    0.004437195 = product of:
      0.02662317 = sum of:
        0.02662317 = product of:
          0.07986951 = sum of:
            0.07986951 = weight(_text_:29 in 2340) [ClassicSimilarity], result of:
              0.07986951 = score(doc=2340,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.6218451 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2340)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Online. 29(2005) no.1, S.28-
  16. Kiefer, A.: ¬Die Googlewhacker (2002) 0.00
    0.004417238 = product of:
      0.026503425 = sum of:
        0.026503425 = product of:
          0.039755136 = sum of:
            0.019967377 = weight(_text_:29 in 262) [ClassicSimilarity], result of:
              0.019967377 = score(doc=262,freq=2.0), product of:
                0.12843955 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15546128 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.019787757 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.019787757 = score(doc=262,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.15476047 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    20. 3.2002 10:28:22
    Source
    Frankfurter Rundschau. Nr.66 vom 19.3.2002, S.29
  17. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.00
    0.0043972796 = product of:
      0.026383676 = sum of:
        0.026383676 = product of:
          0.07915103 = sum of:
            0.07915103 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.07915103 = score(doc=4686,freq=2.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    27.11.2005 18:04:22
  18. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.00
    0.0039782235 = product of:
      0.02386934 = sum of:
        0.02386934 = weight(_text_:forschung in 1165) [ClassicSimilarity], result of:
          0.02386934 = score(doc=1165,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.13437608 = fieldWeight in 1165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.16666667 = coord(1/6)
    
    Content
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
  19. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.00
    0.0039782235 = product of:
      0.02386934 = sum of:
        0.02386934 = weight(_text_:forschung in 3245) [ClassicSimilarity], result of:
          0.02386934 = score(doc=3245,freq=2.0), product of:
            0.17763087 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.036512498 = queryNorm
            0.13437608 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.16666667 = coord(1/6)
    
    Content
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  20. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.00
    0.003886683 = product of:
      0.023320097 = sum of:
        0.023320097 = product of:
          0.06996029 = sum of:
            0.06996029 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.06996029 = score(doc=4872,freq=4.0), product of:
                0.12786055 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036512498 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2002 19:40:22

Languages

  • d 103
  • e 57

Types

  • a 149
  • m 6
  • el 5
  • x 2
  • More… Less…