Search (120 results, page 2 of 6)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  1. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 5771) [ClassicSimilarity], result of:
              0.08777914 = score(doc=5771,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 5771, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  2. Oehler, A.: Analyse von Suchdiensten im Internet : Kriterien und Probleme (1998) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 6610) [ClassicSimilarity], result of:
              0.08777914 = score(doc=6610,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 6610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6610)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Berlin, 07.-10. Oktober 1997. Hrsg.: H. Czap u.a
  3. Suchmaschinen : Alltheweb versus Google (2002) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 846) [ClassicSimilarity], result of:
              0.08777914 = score(doc=846,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=846)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Mitte Juni hieß es, dass nach eigenen Angaben der Osloer Firma Fast, Search & Transfer ASA deren Suchmaschine AlltheWeb (www.allthe web.com) über mehr Ressourcen als Google verfüge. Sie durchsuche 2 095 568 809 gegenüber 2 073 418 204 WebDokumenten bei Google. Bekanntlich sagt die Menge aber nichts über die Qualität aus - so die Reaktion seitens Google. Wie der Suchmaschinenexperte Klaus Schallhorn (www. kso.co.uk/) meldete, rechnet AlltheWeb dazu anscheinend auch Doppler und Seiten, die nicht mehr existieren. Außerdem, so Schallhorn, ignoriere AlltheWeb die Datei robots. txt, die festlegt, welche Dokumente/Verzeichnisse Suchmaschinen nicht durchsuchen sollen. In einem nach seinen Worten `keineswegs umfassenden' Vergleich zwischen AlltheWeb, AltaVista, Google und Fireball kommt Schallhorn zu dem Schluss, dass Google und AlltheWeb zwar meist führend sind, was die Zahl der Treffer angeht, aber je nach Suchbegriff mal die eine, mal die andere Suchmaschine die Nase vorn hat - ungeachtet der Frage, auf welcher Art Daten die Ergebnisse basieren."
  4. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 3184) [ClassicSimilarity], result of:
              0.08777914 = score(doc=3184,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 3184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3184)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
  5. Mayr, P.; Walter, A.-K.: Abdeckung und Aktualität des Suchdienstes Google Scholar (2006) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 5131) [ClassicSimilarity], result of:
              0.08777914 = score(doc=5131,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 5131, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5131)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag widmet sich dem neuen Google-Suchdienst Google Scholar. Die Suchmaschine, die ausschließlich wissenschaftliche Dokumente durchsuchen soll, wird mit ihren wichtigsten Funktionen beschrieben und anschließend einem empirischen Test unterzogen. Die durchgeführte Studie basiert auf drei Zeitschriftenlisten: Zeitschriften von Thomson Scientific, Open AccessZeitschriften des Verzeichnisses DOAJ und in der Fachdatenbank SOLIS ausgewertete sozialwissenschaftliche Zeitschriften. Die Abdeckung dieser Zeitschriften durch Google Scholar wurde per Abfrage der Zeitschriftentitel überprüft. Die Studie zeigt Defizite in der Abdeckung und Aktualität des Google Scholarlndex. Weiterhin macht die Studie deutlich, wer die wichtigsten Datenlieferanten für den neuen Suchdienst sind und welche wissenschaftlichen Informationsquellen im Index repräsentiert sind. Die Pluspunkte von Google Scholar liegen in seiner Einfachheit, seiner Suchgeschwindigkeit und letztendlich seiner Kostenfreiheit. Die Recherche in Fachdatenbanken kann Google Scholar trotz sichtbarer Potenziale (z. B. Zitationsanalyse) aber heute aufgrund mangelnder fachlicher Abdeckung und Transparenz nicht ersetzen.
  6. Lewandowski, D.: Bewertung von linktopologischen Verfahren als bestimmender Ranking-Faktor bei WWW Suchmaschinen (2006) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 5892) [ClassicSimilarity], result of:
              0.08777914 = score(doc=5892,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 5892, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5892)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Nutzerstudien haben gezeigt, dass in der Regel nur die erste Seite der von WWW Suchmaschinen ausgegebenen Trefferlisten Beachtung findet. Dies unterstreicht die Bedeutung des automatischen Rankings durch die Suchmaschinen: Dokumente, die es nicht auf eine Top-Position der Trefferliste schaffen, finden keine oder wenigstens nur eine geringe Beachtung. Alle bedeutenden Suchmaschinen setzen deshalb als einen wesentlichen Faktor des Rankings linktopologische Verfahren ein. Diese bewerten die Qualität von Webseiten anhand ihrer Verlinkungsstruktur, wobei nicht nur die Zahl der eingehenden Links als Votum gewertet wird, sondern auch die Reputation der verweisenden Seite. Die wichtigsten linktopologischen Ansätze werden erläutert. Dabei wird insbesondere auf die Frage eingegangen, ob bestimmte Arten von Webseiten bevorzugt werden bzw. welche das sind.
  7. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 2133) [ClassicSimilarity], result of:
              0.08777914 = score(doc=2133,freq=8.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 2133, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  8. Lewandowski, D.: Suchmaschinen (2023) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 793) [ClassicSimilarity], result of:
              0.08777914 = score(doc=793,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=793)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
  9. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.02
    0.021546453 = product of:
      0.043092906 = sum of:
        0.043092906 = sum of:
          0.029259713 = weight(_text_:dokumente in 3684) [ClassicSimilarity], result of:
            0.029259713 = score(doc=3684,freq=2.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.11253921 = fieldWeight in 3684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
          0.013833192 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
            0.013833192 = score(doc=3684,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.07738023 = fieldWeight in 3684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
      0.5 = coord(1/2)
    
    Abstract
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Date
    22. 6.2005 9:52:00
  10. Auf der Suche nach Suchmaschinen (1996) 0.02
    0.020749787 = product of:
      0.041499574 = sum of:
        0.041499574 = product of:
          0.08299915 = sum of:
            0.08299915 = weight(_text_:22 in 5583) [ClassicSimilarity], result of:
              0.08299915 = score(doc=5583,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46428138 = fieldWeight in 5583, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5583)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Cogito. 12(1996) H.5, S.19-22
  11. Bager, J.: Weniger ist mehr : Internet-Suchmaschinen richtig einsetzen (1998) 0.02
    0.020749787 = product of:
      0.041499574 = sum of:
        0.041499574 = product of:
          0.08299915 = sum of:
            0.08299915 = weight(_text_:22 in 1489) [ClassicSimilarity], result of:
              0.08299915 = score(doc=1489,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46428138 = fieldWeight in 1489, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1489)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    29.12.1998 11:22:00
  12. Lob, S.: Per Mausklick auf die neusten Nachrichten : Internet-Suchmaschinen liefern Presse-Überblicke und stellen persönliche Zeitungen zusammen (1998) 0.02
    0.020749787 = product of:
      0.041499574 = sum of:
        0.041499574 = product of:
          0.08299915 = sum of:
            0.08299915 = weight(_text_:22 in 1622) [ClassicSimilarity], result of:
              0.08299915 = score(doc=1622,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46428138 = fieldWeight in 1622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1622)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    29.12.1998 11:22:25
  13. Hannemann, M.: Online ins Schlaraffenland der Wissenschaft : Literatur-Recherche im Internet ist ein teures Unterfangen ohne Erfolgsgarantie - Doch wer systematisch sucht, gelangt zügig ans Ziel (1999) 0.02
    0.020749787 = product of:
      0.041499574 = sum of:
        0.041499574 = product of:
          0.08299915 = sum of:
            0.08299915 = weight(_text_:22 in 3106) [ClassicSimilarity], result of:
              0.08299915 = score(doc=3106,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.46428138 = fieldWeight in 3106, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3106)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
  14. Lanvent, A.: Licht im Daten Chaos (2004) 0.02
    0.020689743 = product of:
      0.041379485 = sum of:
        0.041379485 = product of:
          0.08275897 = sum of:
            0.08275897 = weight(_text_:dokumente in 2806) [ClassicSimilarity], result of:
              0.08275897 = score(doc=2806,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.31830895 = fieldWeight in 2806, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2806)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
  15. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.02
    0.019353483 = product of:
      0.038706966 = sum of:
        0.038706966 = product of:
          0.07741393 = sum of:
            0.07741393 = weight(_text_:dokumente in 3635) [ClassicSimilarity], result of:
              0.07741393 = score(doc=3635,freq=14.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.29775077 = fieldWeight in 3635, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
  16. ibc: Resultate im Tableau : Suchmaschine ordnet Ergebnisse grafisch (2001) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 5959) [ClassicSimilarity], result of:
              0.073149286 = score(doc=5959,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 5959, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5959)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wer per Suchmaschine im Internet nach einem bestimmten Begriff forscht, hat unter Umständen anschließend zwar jede Menge Dokumente gefunden - aber dabei die Übersicht verloren. Ist der Suchbegriff gar noch relativ allgemein, kommen meist Hunderte von Ergebnisseiten zusammen, viele davon auch mehrfach aufgeführt. Forscher an der University of Illinois in Champaign haben jetzt eine Software entwickelt, die das Auswerten von Suchmaschinen-Ergebnissen erleichtern soll. VisIT heißt das Programm, das die gefundenen Internetadressen nicht als Liste darstellt, sondern als Grafik. Farbige Rechtecke symbolisieren die einzelnen Seiten, und durch Pfeile werden inhaltliche Zusammenhänge verdeutlicht; so werden besonders relevante Ergebnisse besser erkennbar. Geht der Nutzer mit dem Mauszeiger auf eine Adresse, erhält er in einem sich öffnenden Fenster kurze Informationen zum Inhalt der Seite. Innerhalb der Grafik kann er dann die einzelnen Ergebnisse nach Wichtigkeit anordnen und markieren. Komfortabel ist VisIT auch dadurch, dass mehrere Suchmaschinen gleichzeitig nach einem bestimmten Begriff durchforstet werden und nicht, wie meist üblich, nacheinander. Außerdem sortiert das Programm identische Ergebnisse aus. Das lästige Blättern in einer langen Liste entfällt, da alle gefundenen Adressen auf einen Blick zu sehen sind und dort direkt per Mausklick angewählt werden können. Unter der Adresse http://www.visit.uiuc.edu lässt sich die Beta-Version der Software kostenlos herunterladen. Sie funktioniert zur Zeit nur unter Windows, aber Linux- und Mac-Versionen sind in Vorbereitung
  17. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 6725) [ClassicSimilarity], result of:
              0.073149286 = score(doc=6725,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 6725, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6725)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
  18. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 1777) [ClassicSimilarity], result of:
              0.073149286 = score(doc=1777,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 1777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1777)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
  19. Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 3490) [ClassicSimilarity], result of:
              0.073149286 = score(doc=3490,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 3490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3490)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
  20. Speck, H.; Thiele, F.P.: Goggle, Gossip & PR-ostitution : Das Geschäft einer Suchmaschine (2005) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 3508) [ClassicSimilarity], result of:
              0.073149286 = score(doc=3508,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 3508, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3508)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Jean Baudrillard, der französische Philosoph und Hyperrealist, beschreibt in »Disney World Company« eine Welt, die sich durch die Globalisierung, Vernetzung, und Synchronisierung von Informationen auszeichnet. Der schnelle, uneingeschränkte Zugriff auf neueste Informationen wird darin immer wichtiger und zwanghafter. Einzig automatisierte Suchmaschinen scheinen in der Lage, dieser ständig anwachsenden Informationsflut Paroli zu bieten und das schnelle Auffinden von Informationen zu gewährleisten. Ein Drittel der Bevölkerung sucht täglich auf diesem Wege nach gewünschten Resultaten. Der Marktführer Google verzeichnet täglich über 200 Millionen Suchanfragen. Der Verlust der editorialen Filter- und Kontrollebene wird jedoch von der Mehrheit noch nicht wahrgenommen - die medienpolitische Einordnung von Suchmaschinen findet kaum statt. Sie werden als unfehlbare, allwissende Götter angesehen. Der relativ junge Suchmaschinenmarkt hat sich in den letzten Jahren stark gewandelt: In seiner Sturm- und Drangphase noch durch eine Vielzahl kleinerer Suchmaschinen gekennzeichnet, wird der Markt momentan von Google, Microsoft und Yahoo! klar dominiert. Diese Monopolstellung und damit zwangsläufig verbundene Machtpositionen beeinflussen unseren heutigen Zugang zu Wissen. Wenige Suchmaschinenbetreiber entscheiden dabei über die Auswahl, Reihenfolge und Bewertung von Informationen, ohne dass die zu Grunde liegenden Maßstäbe transparent gemacht werden. Verschärfend kommt hinzu, dass das Ranking gerade im kommerziellen Bereich erhebliche finanzielle Konsequenzen haben kann, die kommerzielle Anbieter zu massiven »Lobby«- und Manipulationstätigkeiten, so genanntem Search-Engine-Marketing motivieren. Diese Search-Engine-Optimierungen (SEO) sind verstärkt im Vermittler- und Resellerbereich zu verzeichnen, dem so genannten Affiliate Business, wo solche Manipulationen kombiniert mit der Allmacht der Suchmaschinen über die von ihnen indizierten Dokumente, die wesentlichen Probleme und Schwachstellen heutiger Suchmaschinen charakterisieren.

Years

Types

  • a 101
  • el 6
  • m 6
  • x 5
  • p 2
  • r 1
  • More… Less…