Search (681 results, page 1 of 35)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.27
    0.26745498 = product of:
      0.9551964 = sum of:
        0.03610531 = product of:
          0.10831592 = sum of:
            0.10831592 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.10831592 = score(doc=2514,freq=2.0), product of:
                0.19272678 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022732547 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15318185 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15318185 = score(doc=2514,freq=4.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.28 = coord(7/25)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.05
    0.045021802 = product of:
      0.22510901 = sum of:
        0.01860943 = weight(_text_:der in 3438) [ClassicSimilarity], result of:
          0.01860943 = score(doc=3438,freq=36.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.36647737 = fieldWeight in 3438, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.08393272 = weight(_text_:desktop in 3438) [ClassicSimilarity], result of:
          0.08393272 = score(doc=3438,freq=8.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.5343713 = fieldWeight in 3438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.059470486 = weight(_text_:programme in 3438) [ClassicSimilarity], result of:
          0.059470486 = score(doc=3438,freq=10.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.47561523 = fieldWeight in 3438, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.003625888 = product of:
          0.010877663 = sum of:
            0.010877663 = weight(_text_:29 in 3438) [ClassicSimilarity], result of:
              0.010877663 = score(doc=3438,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.13602862 = fieldWeight in 3438, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3438)
          0.33333334 = coord(1/3)
        0.059470486 = weight(_text_:programme in 3438) [ClassicSimilarity], result of:
          0.059470486 = score(doc=3438,freq=10.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.47561523 = fieldWeight in 3438, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
      0.2 = coord(5/25)
    
    Abstract
    Mittlerweile bieten alle größeren Suchmaschinen ein eigenes Suchwerkzeug für den Desktop an, mit dem sich Dateien, E-Mails, Kontakte usw. durchsuchen lassen. Die Tools werden kostenlos angeboten. Sie zeigen, dass die Suchmaschinen ihre Dienste in Zukunft weiter in das direkte Umfeld des Benutzers integrieren wollen.
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."
    Source
    Password. 2005, H.6, S.29
  3. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.04
    0.041983057 = product of:
      0.13119705 = sum of:
        0.017401477 = weight(_text_:einzelne in 4871) [ClassicSimilarity], result of:
          0.017401477 = score(doc=4871,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.13005784 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.014614981 = weight(_text_:der in 4871) [ClassicSimilarity], result of:
          0.014614981 = score(doc=4871,freq=68.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.28781426 = fieldWeight in 4871, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.023980778 = weight(_text_:desktop in 4871) [ClassicSimilarity], result of:
          0.023980778 = score(doc=4871,freq=2.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.15267752 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.017401477 = weight(_text_:einzelne in 4871) [ClassicSimilarity], result of:
          0.017401477 = score(doc=4871,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.13005784 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.026323223 = weight(_text_:programme in 4871) [ClassicSimilarity], result of:
          0.026323223 = score(doc=4871,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21051998 = fieldWeight in 4871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0020719361 = product of:
          0.006215808 = sum of:
            0.006215808 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
              0.006215808 = score(doc=4871,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.07773064 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.33333334 = coord(1/3)
        0.026323223 = weight(_text_:programme in 4871) [ClassicSimilarity], result of:
          0.026323223 = score(doc=4871,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21051998 = fieldWeight in 4871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0030799462 = product of:
          0.0061598923 = sum of:
            0.0061598923 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.0061598923 = score(doc=4871,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.32 = coord(8/25)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
    Source
    Spektrum der Wissenschaft. 2006, H.2, S.82-88
  4. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.04
    0.0371696 = product of:
      0.18584801 = sum of:
        0.036990453 = weight(_text_:informatik in 35) [ClassicSimilarity], result of:
          0.036990453 = score(doc=35,freq=4.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.3189046 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.06314184 = weight(_text_:monographien in 35) [ClassicSimilarity], result of:
          0.06314184 = score(doc=35,freq=4.0), product of:
            0.15154536 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.022732547 = queryNorm
            0.41665307 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.013262879 = weight(_text_:der in 35) [ClassicSimilarity], result of:
          0.013262879 = score(doc=35,freq=14.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2611872 = fieldWeight in 35, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.05686181 = weight(_text_:datenverarbeitung in 35) [ClassicSimilarity], result of:
          0.05686181 = score(doc=35,freq=4.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.39539057 = fieldWeight in 35, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
        0.015591043 = weight(_text_:t in 35) [ClassicSimilarity], result of:
          0.015591043 = score(doc=35,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.17409891 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
      0.2 = coord(5/25)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    QP 650 Wirtschaftswissenschaften / Allgemeine Betriebswirtschaftslehre / Aufbauelemente des Unternehmens / Absatz / Werbung und Public Relations / Datenverarbeitung im Marketing
  5. Arnold, A.: Jetzt finden Sie alles schneller (2005) 0.04
    0.03600857 = product of:
      0.22505358 = sum of:
        0.016388033 = weight(_text_:der in 74) [ClassicSimilarity], result of:
          0.016388033 = score(doc=74,freq=38.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.32273117 = fieldWeight in 74, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.12969589 = weight(_text_:desktop in 74) [ClassicSimilarity], result of:
          0.12969589 = score(doc=74,freq=26.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.82572997 = fieldWeight in 74, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.039484836 = weight(_text_:programme in 74) [ClassicSimilarity], result of:
          0.039484836 = score(doc=74,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.31577998 = fieldWeight in 74, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
        0.039484836 = weight(_text_:programme in 74) [ClassicSimilarity], result of:
          0.039484836 = score(doc=74,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.31577998 = fieldWeight in 74, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
      0.16 = coord(4/25)
    
    Abstract
    Geniale Tools machen das Leben einfacher und sparen Zeit: Die neuen Desktop-Suchmaschinen finden auf Ihrem PC Mails, Texte, Bilder, Musik und vieles mehr innerhalb von Sekunden.
    Content
    "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen.
    Das leisten Desktop-Such Tools Desktop-Suchmaschinen indizieren alle gängigen Dateien auf Ihrem Rechner. Das heißt, sie speichern nicht nur den Dateinamen, sondern scannen auch den darin enthaltenen Text und merken sich diesen. Dazu ist nach der Installation einer Desktop-Suche zunächst mal ein Indizierungsvorgang nötig. Welche Ordner die Software durchsucht, stellen Sie in den Optionen der Programme ein. Die Tools führen die Indizierung nur dann aus, wenn am Rechner gerade nicht gearbeitet wird. Je nach Datenumfang und PC-Geschwindigkeitdauert der erste Suchlauf zwischen 10 Minuten und mehreren Stunden. Die Utilities sind also nach der Installation nicht sofort einsatzbereit. Haben Sie viele Daten auf Ihrem Rechner, kann es sich lohnen, den PC eine Nacht lang eingeschaltet zu lassen. Am nächsten Morgen ist der Index dann auf jeden Fall komplett, und Sie können Ioslegen. Die vorgestellten Desktop-Suchen indizieren alle gängigen Dateiformate. Lediglich dem Tool von Microsoft muss mit einem Plug-in noch das PDF-Format beigebracht werden. Wer auch mit exotischen Formaten arbeitet, findet auf den Websites der Anbieter oft Plugins oder Erweiterungspakete, mit denen die Programme weitere Dateitypen durchsuchen. Der Suchvorgang nach ein oder zwei Stichwörtern läuft bei allen Programmen flott abnach wenigen Sekunden präsentieren sie eine Ergebnisliste. Bei dieser Liste unterscheiden sich die Tools aber. Wir erwarten, dass sich die gefundenen Dateien gut sortieren lassen, etwa nach Ordnern, Dateitypen oder Kategorien wie Musik, Bilder, Dokumente. Zudem sollte jede Software Module zur Vorschau auf die gefundenen Dateien liefern oder aus dem Windows-System einbinden. Die Grenzen der Suchmaschinen Die Leistung der Tools hat uns beeindruckt. Besonders gut gefällt uns, dass sie auch in großen Musik- und Bildersammlungen suchen. Doch zeigen sich hier auch die Grenzen der Suchmaschinen. Damit ein Programm alle Bilder aus dem Urlaub 2005 liefert, muss man die Bilder erst einmal mit den entsprechenden Informationen versehen. Das ist aber mit den Desktop-Suchprogrammen nicht möglich. Sie brauchen dafür ein Spezialprogramm, etwa eine Bildverwaltung, mit dem Sie die Infos eingeben können. Somit brauchen Sie zusätzlich zur Desktop-Suchmaschine auf jeden Fall ergänzende Tools. Ein weiterer, wenn auch kleinerer, Nachteil ist der Speicherplatzbedarf. Für den Cache, der die Infos zu indizierten Dateien enthält, benötigen die Tools bis zu mehreren hundert MB. Spitzenreiter ist hier das Tool von Google, da es auch Kopien der meisten Dateien anlegt. Auch die anderen Programme weisen einen großen Cache auf. Wie viel Platz genau verbraucht wird, hängt von der Zahl und Art der indizierten Dateien ab."
    Object
    Google Desktop 2.0
    Copernic Desktop 1.61
    MSN Desktop 2.5
    Yahoo Desktop 1.2
  6. Digitale Schnüfler (2008) 0.03
    0.034710225 = product of:
      0.21693891 = sum of:
        0.015814975 = weight(_text_:der in 2205) [ClassicSimilarity], result of:
          0.015814975 = score(doc=2205,freq=26.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.31144586 = fieldWeight in 2205, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
        0.12589906 = weight(_text_:desktop in 2205) [ClassicSimilarity], result of:
          0.12589906 = score(doc=2205,freq=18.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.8015569 = fieldWeight in 2205, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
        0.03761244 = weight(_text_:programme in 2205) [ClassicSimilarity], result of:
          0.03761244 = score(doc=2205,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.30080548 = fieldWeight in 2205, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
        0.03761244 = weight(_text_:programme in 2205) [ClassicSimilarity], result of:
          0.03761244 = score(doc=2205,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.30080548 = fieldWeight in 2205, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2205)
      0.16 = coord(4/25)
    
    Abstract
    Festplatten haben in den vergangenen Jahren beachtliche Größen erreicht und ein Ende scheint immer noch nicht absehbar zu sein. Damit ist auf diesen Datenträgern genügend Platz für sehr viele Dateien jedweder Art, die sich im Laufe eines Computerlebens so ansammeln. Die Krux: Wenn es darum geht, inmitten der riesigen Menge an Dateien eine ganz bestimmte zu finden, kann die Suche recht zeitraubend werden. Abhilfe schaffen so genannte Desktop-Suchmaschinen. Diese haben wir uns für Sie genauer angesehen.
    Content
    "Suche ohne Ende Windows hat bekanntlich von Hause aus ein Suchwerkzeug an Bord. Im einfachsten Fall reicht das aus. Wenn sich hingegen mehrere hunderttausend Dateien auf dem Datenträger tummeln, beginnt meist nach dem Start der Suche eine ebenso unfreiwillige wie ausgiebige Kaffeepause. Dateien mit Hilfe der Bordwerkzeuge zu suchen, kann mittlerweile nur noch als Notlösung betrachtet werden. Weitaus effizienter sind spezielle Suchwerkzeuge, die umfassendere Suchfunktionen anbieten und darüber hinaus auch schneller arbeiten. Hierbei handelt es sich um die Desktop-Suchmaschinen. Am Anfang war der Index Das Hauptargument für die Verwendung einer Desktop-Suchmaschine anstelle der Windowsinternen Dateisuche ist die deutlich höhere Suchgeschwindigkeit. Wenn Sie mit der Windows-Suchfunktion nach einer Datei suchen, werden alle Ordner systematisch durchsucht. Das dauert mitunter unerfreulich lang. Auch Suchmaschinen bleibt eine solche Dateisuche nicht erspart. Allerdings bedient man sich hier eines Tricks: Nach der Installation werden zunächst die Festplatten gescannt und alle gefundenen Dateien werden nebst Pfad in einer Datenbank eingetragen. Das ist der so genannte Index. Sobald eine Suche durchgeführt wird, greift die Software nunmehr auf den Index zu, anstatt jedes Mal die Festplatte aufs Neue umzugraben. Das geht wesentlich schneller und gesuchte Dateien sind schnell gefunden. Gleichzeitig werden die Datenträgen ab sofort überwacht und jede Änderung wird im Index nachgetragen. Das lange Warten nach einem Suchergebnis hat somit ein Ende.
    Nicht nur Desktop-Suche Eine Desktop-Suchmaschine ist ein hilfreiches Werkzeug vor allem, wenn sich außer Dateien noch E-Mails rasch finden lassen. Da heutzutage ohne Internet gar nichts mehr geht, liegt es nahe, die Suche auch auf das World Wide Web auszudehnen. Aus diesem Grunde sind diese Tools darüber hinaus auch mit einer Internet-Suchfunktion ausgestattet. Diese Funktion beschränkt sich jedoch in der Regel darauf, dass der standardmäßig genutzte Internet-Browser gestartet wird und die Seite eines Suchdienstes erscheint. Damit handelt es sich um ein kleines Zusatzbonbon, das dem Anwender einige Umwege erspart. Kostenlos, aber nicht umsonst Niemand hat etwas zu verschenken. Auch wenn die meisten Desktop-Suchmaschinen kostenfrei erhältlich sind, verbergen sich oft einige Stolperfallen im Detail. Die vorliegenden Testkandidaten sind zwar keine Spyware-Programme, doch es empfiehlt sich ein kritischer Blick bei der Auswahl des gewünschten Werkzeugs. Einige Produkte bieten neben einer kostenlosen Home-Edition ein kostenpflichtiges Pendant für professionelle Anwender an. Das mag angehen und ist sicherlich kein Problem. Zudem darf davon ausgegangen werden, dass kostenlose Desktop-Suchmaschinen bei weitem nicht so viele Dateiformate unterstützen, wie die kommerziell erhältlichen Varianten. Immerhin sind die Lizenzen, die Hersteller kaufen müssen, um eine umfassende Unerstützung für unterschiedliche Dateiformate anbieten zu können, sehr teuer. Kritisch zu hinterfragen sind jedoch jene Tools, die von werbefinanzierten Anbietern stammen. Hier besteht die Gefahr, dass persönliche Daten der Anwender zum Zweck der statistischen Auswertung des Nutzungsverhaltens gesammelt werden. Wer nichts zu verbergen oder keine Probleme damit hat, kann diese Programme durchaus auch nutzen. Sensible Daten sollten dann aber gesondert geschützt werden."
    Object
    Google Desktop
    Series
    Software: Desktop-Suchmaschinen
  7. bs: ¬Der gläserne PC (2005) 0.03
    0.030112233 = product of:
      0.2509353 = sum of:
        0.017365186 = weight(_text_:der in 3252) [ClassicSimilarity], result of:
          0.017365186 = score(doc=3252,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 3252, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3252)
        0.21449059 = weight(_text_:desktop in 3252) [ClassicSimilarity], result of:
          0.21449059 = score(doc=3252,freq=10.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            1.3655893 = fieldWeight in 3252, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0625 = fieldNorm(doc=3252)
        0.01907951 = product of:
          0.05723853 = sum of:
            0.05723853 = weight(_text_:z in 3252) [ClassicSimilarity], result of:
              0.05723853 = score(doc=3252,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.47175628 = fieldWeight in 3252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3252)
          0.33333334 = coord(1/3)
      0.12 = coord(3/25)
    
    Abstract
    Lange hat es gedauert, bis die besonderen Fähigkeiten der EDV zum Auffinden von Informationen auch den Desktop-PC erreicht haben. Mittlerweile aber haben einige Branchengrößen die Katze aus dem Sack gelassen und ihre Desktop-Suchmaschinen kostenlos der Userschar vorgelegt. Doch welche Lösung ist die beste? Wir haben die wichtigsten Festplatten-Detektive gründlich durchleuchtet und stellen alle Vor- und Nachteile vor.
    Object
    Google Desktop Beta
    Yahoo Desktop Beta
    MSN Desktop Search Beta
    A-Z Finder
  8. Kramer, A.: Such, Programm! : Elf kostenlose Desktop-Tools schnüffeln um die Wette (2005) 0.03
    0.029729845 = product of:
      0.24774872 = sum of:
        0.014178614 = weight(_text_:der in 4560) [ClassicSimilarity], result of:
          0.014178614 = score(doc=4560,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.27922085 = fieldWeight in 4560, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4560)
        0.21449059 = weight(_text_:desktop in 4560) [ClassicSimilarity], result of:
          0.21449059 = score(doc=4560,freq=10.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            1.3655893 = fieldWeight in 4560, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.0625 = fieldNorm(doc=4560)
        0.01907951 = product of:
          0.05723853 = sum of:
            0.05723853 = weight(_text_:z in 4560) [ClassicSimilarity], result of:
              0.05723853 = score(doc=4560,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.47175628 = fieldWeight in 4560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4560)
          0.33333334 = coord(1/3)
      0.12 = coord(3/25)
    
    Abstract
    Dass die Windows-Suche zu langsam und der Windows-Indexdienst zu umständlich ist, hat der geplagte Nutzer früher zähneknirschend in Kauf nehmen müssen. Mittlerweile gibt es massenweise kostenlose Suchprogramme, die allesamt mehr leisten als die Systembeigaben und zum Teil sogar das Web durchsuchen
    Object
    A-Z Finder 1.08
    Copernic Desktop Search
    Google Desktop
    Hotbot Desktop 1.0
    Yahoo Desktop Search 1.1
  9. Lanvent, A.: Licht im Daten Chaos (2004) 0.03
    0.027852666 = product of:
      0.17407916 = sum of:
        0.017365186 = weight(_text_:der in 2806) [ClassicSimilarity], result of:
          0.017365186 = score(doc=2806,freq=24.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 2806, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
        0.09592311 = weight(_text_:desktop in 2806) [ClassicSimilarity], result of:
          0.09592311 = score(doc=2806,freq=8.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.6107101 = fieldWeight in 2806, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
        0.030395439 = weight(_text_:programme in 2806) [ClassicSimilarity], result of:
          0.030395439 = score(doc=2806,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.24308753 = fieldWeight in 2806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
        0.030395439 = weight(_text_:programme in 2806) [ClassicSimilarity], result of:
          0.030395439 = score(doc=2806,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.24308753 = fieldWeight in 2806, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.03125 = fieldNorm(doc=2806)
      0.16 = coord(4/25)
    
    Abstract
    Spätestens bei der Suche nach E-Mails, PDF-Dokumenten oder Bildern mit Texten kapituliert die Windows-Suche. Vier von neun Desktop-Suchtools finden dagegen beinahe jede verborgene Datei.
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
    Object
    Isys Desktop 6.03
  10. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.02
    0.02313747 = product of:
      0.1446092 = sum of:
        0.052204434 = weight(_text_:einzelne in 3184) [ClassicSimilarity], result of:
          0.052204434 = score(doc=3184,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.39017352 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.016813766 = weight(_text_:der in 3184) [ClassicSimilarity], result of:
          0.016813766 = score(doc=3184,freq=10.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3311152 = fieldWeight in 3184, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.052204434 = weight(_text_:einzelne in 3184) [ClassicSimilarity], result of:
          0.052204434 = score(doc=3184,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.39017352 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.023386564 = weight(_text_:t in 3184) [ClassicSimilarity], result of:
          0.023386564 = score(doc=3184,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.26114836 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
      0.16 = coord(4/25)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
  11. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.02
    0.022871653 = product of:
      0.14294784 = sum of:
        0.015025631 = weight(_text_:der in 4730) [ClassicSimilarity], result of:
          0.015025631 = score(doc=4730,freq=46.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.29590124 = fieldWeight in 4730, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
        0.089927904 = weight(_text_:desktop in 4730) [ClassicSimilarity], result of:
          0.089927904 = score(doc=4730,freq=18.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.57254064 = fieldWeight in 4730, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
        0.01899715 = weight(_text_:programme in 4730) [ClassicSimilarity], result of:
          0.01899715 = score(doc=4730,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.1519297 = fieldWeight in 4730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
        0.01899715 = weight(_text_:programme in 4730) [ClassicSimilarity], result of:
          0.01899715 = score(doc=4730,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.1519297 = fieldWeight in 4730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
      0.16 = coord(4/25)
    
    Content
    "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.
    Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: K&uuml; statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
    Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
    Object
    Google Desktop
    Copernic Desktop Search
    X1 Desktop Search
  12. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.02
    0.02264039 = product of:
      0.14150244 = sum of:
        0.04350369 = weight(_text_:einzelne in 4063) [ClassicSimilarity], result of:
          0.04350369 = score(doc=4063,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.039146263 = weight(_text_:anwendungen in 4063) [ClassicSimilarity], result of:
          0.039146263 = score(doc=4063,freq=2.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.30843142 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.0153487995 = weight(_text_:der in 4063) [ClassicSimilarity], result of:
          0.0153487995 = score(doc=4063,freq=12.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.30226544 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.04350369 = weight(_text_:einzelne in 4063) [ClassicSimilarity], result of:
          0.04350369 = score(doc=4063,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.16 = coord(4/25)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  13. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.02
    0.021434173 = product of:
      0.107170865 = sum of:
        0.043766856 = weight(_text_:anwendungen in 5134) [ClassicSimilarity], result of:
          0.043766856 = score(doc=5134,freq=10.0), product of:
            0.12692048 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.022732547 = queryNorm
            0.34483683 = fieldWeight in 5134, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.015665304 = weight(_text_:der in 5134) [ClassicSimilarity], result of:
          0.015665304 = score(doc=5134,freq=50.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.30849838 = fieldWeight in 5134, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.01899715 = weight(_text_:programme in 5134) [ClassicSimilarity], result of:
          0.01899715 = score(doc=5134,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.1519297 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.01899715 = weight(_text_:programme in 5134) [ClassicSimilarity], result of:
          0.01899715 = score(doc=5134,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.1519297 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
        0.009744402 = weight(_text_:t in 5134) [ClassicSimilarity], result of:
          0.009744402 = score(doc=5134,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.10881182 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.2 = coord(5/25)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  14. Sander-Beuermann, W.; Anders, S.A.: "Besser den Marktführer meiden" : Experte warnt vor Datenhunger im Netz (2009) 0.02
    0.019945081 = product of:
      0.12465677 = sum of:
        0.034802955 = weight(_text_:einzelne in 2873) [ClassicSimilarity], result of:
          0.034802955 = score(doc=2873,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 2873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
        0.007089307 = weight(_text_:der in 2873) [ClassicSimilarity], result of:
          0.007089307 = score(doc=2873,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.13961042 = fieldWeight in 2873, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
        0.047961555 = weight(_text_:desktop in 2873) [ClassicSimilarity], result of:
          0.047961555 = score(doc=2873,freq=2.0), product of:
            0.15706816 = queryWeight, product of:
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.022732547 = queryNorm
            0.30535504 = fieldWeight in 2873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.9093957 = idf(docFreq=119, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
        0.034802955 = weight(_text_:einzelne in 2873) [ClassicSimilarity], result of:
          0.034802955 = score(doc=2873,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 2873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
      0.16 = coord(4/25)
    
    Content
    "Herr Sander-Beuermann, welche Suchmaschine nutzen Sie? MetaGer natürlich, weil ich weiß, was dahinter steckt und ich ihr voll vertrauen kann. Und weil ich immer das finde, was ich suche. .und weil Sie MetaGer an der Uni Hannover selbst entwickelt haben. Ja, deshalb weiß ich ja auch, was bei einer Suchabfrage im Hintergrund passiert. Bei anderen Suchmaschinen wissen die User das meist nicht. Jede Suchmaschine kann Nutzungsdaten protokollieren, und die großen werden das sicher auch tun. Es ist völlig offen, was dann mit diesen Daten passiert. Bei Benutzerzahlen von mehreren hundert Millionen in Kombination mit Erkenntnissen aus weiteren Online-Diensten können Informationen aus dem Surfverhalten gezogen werden, an die man sonst nie kommen würde. Etwa für Marktanalysen oder die Erhebung von Kaufverhalten. Was kann Google über mich persönlich erfahren? Informationen über einzelne Personen kann Google nur gewinnen, wenn sie neben der Suchmaschine auch andere Google-Tools nutzen, bei denen sie sich persönlich anmelden. Etwa Google Mail oder die Desktop-Werkzeuge von Google. Diese Informationen könnte Google kombinieren und daraus seine Schlüsse ziehen. Ist Bing eine Alternative? Durchaus. Die Qualität ist konkurrenzfähig, und es gibt bei Microsoft nicht die Fülle weiterer Dienste wie bei Google. Wenn aber das Windows-Betriebssystem die IP-Adresse an Microsoft übermitteln würde, wäre das enorm gefährlich. Diese Verbindung besteht aber meines Wissens nicht. Wie kann man also das Internet durchsuchen, ohne selbst durchsucht zu werden? Am besten sollten User sowohl beim Betriebssystem als auch bei den Suchmaschinen nicht den Marktführer benutzen. Und natürlich empfehle ich Suchmaschinen, die IP-Adressen nicht mitschreiben, wie zum Beispiel unser MetaGer oder auch Ixquick oder Scroogle. Die liefern gute Ergebnisse und sind im Hinblick auf den Datenschutz die bessere Alternative."
  15. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (1999) 0.02
    0.019299889 = product of:
      0.1608324 = sum of:
        0.055485677 = weight(_text_:informatik in 5777) [ClassicSimilarity], result of:
          0.055485677 = score(doc=5777,freq=4.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.4783569 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.094712764 = weight(_text_:monographien in 5777) [ClassicSimilarity], result of:
          0.094712764 = score(doc=5777,freq=4.0), product of:
            0.15154536 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.022732547 = queryNorm
            0.6249796 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.01063396 = weight(_text_:der in 5777) [ClassicSimilarity], result of:
          0.01063396 = score(doc=5777,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.20941564 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
      0.12 = coord(3/25)
    
    Classification
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
    RVK
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
  16. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.02
    0.018406851 = product of:
      0.15339044 = sum of:
        0.06960591 = weight(_text_:einzelne in 5496) [ClassicSimilarity], result of:
          0.06960591 = score(doc=5496,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 5496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
        0.014178614 = weight(_text_:der in 5496) [ClassicSimilarity], result of:
          0.014178614 = score(doc=5496,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.27922085 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
        0.06960591 = weight(_text_:einzelne in 5496) [ClassicSimilarity], result of:
          0.06960591 = score(doc=5496,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 5496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
      0.12 = coord(3/25)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
  17. Lewandowski, D.: Web Information Retrieval (2005) 0.02
    0.018322986 = product of:
      0.11451866 = sum of:
        0.026156198 = weight(_text_:informatik in 4028) [ClassicSimilarity], result of:
          0.026156198 = score(doc=4028,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.2254996 = fieldWeight in 4028, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.034802955 = weight(_text_:einzelne in 4028) [ClassicSimilarity], result of:
          0.034802955 = score(doc=4028,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 4028, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.018756542 = weight(_text_:der in 4028) [ClassicSimilarity], result of:
          0.018756542 = score(doc=4028,freq=28.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.36937445 = fieldWeight in 4028, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.034802955 = weight(_text_:einzelne in 4028) [ClassicSimilarity], result of:
          0.034802955 = score(doc=4028,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.26011568 = fieldWeight in 4028, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.16 = coord(4/25)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
  18. Bischopinck, Y. von; Ceyp, M.: Suchmaschinen-Marketing : Konzepte, Umsetzung und Controlling (2007) 0.02
    0.016705418 = product of:
      0.20881774 = sum of:
        0.10440887 = weight(_text_:einzelne in 482) [ClassicSimilarity], result of:
          0.10440887 = score(doc=482,freq=8.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.78034705 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.10440887 = weight(_text_:einzelne in 482) [ClassicSimilarity], result of:
          0.10440887 = score(doc=482,freq=8.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.78034705 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
      0.08 = coord(2/25)
    
    Classification
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    RVK
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
  19. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.02
    0.01650118 = product of:
      0.10313238 = sum of:
        0.012469424 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.012469424 = score(doc=3068,freq=22.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2455616 = fieldWeight in 3068, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.039484836 = weight(_text_:programme in 3068) [ClassicSimilarity], result of:
          0.039484836 = score(doc=3068,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.31577998 = fieldWeight in 3068, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.039484836 = weight(_text_:programme in 3068) [ClassicSimilarity], result of:
          0.039484836 = score(doc=3068,freq=6.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.31577998 = fieldWeight in 3068, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.011693282 = weight(_text_:t in 3068) [ClassicSimilarity], result of:
          0.011693282 = score(doc=3068,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.13057418 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
      0.16 = coord(4/25)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
    Footnote
    Besprechungsaufsatz zu: Calishain, T. u. R. Dornfest: Google hacks: 100 industrial-strength tips and tools. Sebastopol, CA: O'Reilly 2003.
  20. Brückner, F.: Angriff auf den Welt-Detektiv : Wiki Search (2008) 0.02
    0.016340217 = product of:
      0.10212636 = sum of:
        0.019617148 = weight(_text_:informatik in 1272) [ClassicSimilarity], result of:
          0.019617148 = score(doc=1272,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.1691247 = fieldWeight in 1272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1272)
        0.018030757 = weight(_text_:der in 1272) [ClassicSimilarity], result of:
          0.018030757 = score(doc=1272,freq=46.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3550815 = fieldWeight in 1272, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1272)
        0.032239232 = weight(_text_:programme in 1272) [ClassicSimilarity], result of:
          0.032239232 = score(doc=1272,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.25783327 = fieldWeight in 1272, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1272)
        0.032239232 = weight(_text_:programme in 1272) [ClassicSimilarity], result of:
          0.032239232 = score(doc=1272,freq=4.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.25783327 = fieldWeight in 1272, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1272)
      0.16 = coord(4/25)
    
    Content
    "David hat den ersten Kampf gegen Goliath verloren. Das ist die Bilanz, die Experten am Montag nach dem Start der Internet-Suchmaschine Wikia Search ziehen. "Ich bin maßlos enttäuscht", sagt Dirk Lewandowski, Professor an der Hochschule für Angewandte Wissenschaften Hamburg. Dabei hatte Jimmy Wales, Gründer der Online-Enzyklopädie Wikipedia, angekündigt, mit Wikia Search den Branchenprimus Google anzugreifen. Dessen Marktanteil liegt in den USA bei rund 65 Prozent - Tendenz seit Jahren steigend. Dass Google in Deutschland nicht weiterwächst, liegt schlicht daran, dass dies bei einem geschätzten Marktanteil von rund 90 Prozent nicht mehr möglich ist, wie Lewandowski meint. Deutschlands Internetnutzer suchen nicht im Netz nach Informationen, sie googeln danach . "Google hat sich als Standard durchgesetzt", sagt Wolf-Tilo Balke, der sich in Hannover mit Zukunftstechnologien befasst. Gerade wegen der Marktmacht - dank der die gleichnamige US-Firma im dritten Quartal 2007 etwa vier Milliarden Dollar Umsatz erzielt hat - stieß Jimmy Wales' Ankündigung, mit Wikia Search den Markt aufzumischen, auf breite Resonanz. Warnrufe der Wissenschaft Schließlich sei es nicht hinnehmbar, so etwa eine vom österreichischen Verkehrsministerium mitfinanzierte Studie aus dem Jahr 2007, dass ein Unternehmen mehr wisse, als alle Institutionen in der menschlichen Geschichte zuvor. Google, so die Studie weiter, werde zum größten Detektivbüro der Welt. "Es kann nicht sein, dass Google uns die Sicht der Welt definiert. Zumal Google schon qua Gesetz dazu verpflichtet ist, sich um das Wohl seiner Aktionäre zu kümmern und nicht um das der Allgemeinheit", fasst Norbert Fuhr, Informatik-Professor an der Universität Duisburg-Essen die Warnrufe vieler Wissenschaftler zusammen. Denn immer mehr gilt: Was nicht gegoogelt werden kann, wird auch nicht gefunden - und spielt damit keine Rolle mehr.
    Immerhin erfasst Googles Suchmaschine mehrere Milliarden Internetseiten. Ausgefeilte Programme sollen dafür sorgen, dass der Suchmaschinennutzer genau das findet, was er sucht. Unklar ist, nach welchen Kriterien Googles Raster Inhalte bewertet und sortiert. Das ist geheim. Genau an diesem Punkt, der fehlenden Transparenz, will Wales mit seiner Suchmaschine ansetzen. Deren Suchprogramme sind bei jedem Rechercheergebnis einsehbar. Außerdem sollen nicht nur Programme, sondern Menschen mit über die Relevanz von Webseiten entscheiden. Googles Rechenpower soll - ganz nach dem Vorbild von Wikipedia, mit der Wikia organisatorisch nichts zu tun hat - von einer freiwilligen Nutzergemeinschaft geschlagen werden. Mit dem Modell einer Mitmach-Suchmaschine hat Wales Werbung gemacht. Am Montag aber schauten Nutzer, die Inhalte bewerten wollten, in die Röhre. Denn "diese wesentliche Funktion ist noch nicht freigeschaltet worden", wie Professor Lewandowski vermutet. Jimmy Wales sagt der FR dazu am Montagabend: "Wir hatten einige technische Probleme, die aber in einigen Stunden behoben sein sollten." Lewandowskis Urteil über Wikia Search fällt dennoch ernüchternd aus: "So hätte Wikia nicht auf den Markt gebracht werden dürfen." Denn unabhängig von fehlenden Funktionen komme bei "egal welcher Anfrage nichts Gescheites heraus". Ein Grund: Zurzeit biete Wikia nur einen Überblick über 50 Millionen Seiten. Nötig seien aber einige hundert Millionen. Laut Wikia-Gründer Wales liegt die Zahl höher, hat aber die 100 Millionen-Grenze noch nicht erreicht. Bereits in den kommenden Wochen werde das Angebot größer ausfallen.
    Zum Vorwurf, Wikia Search sei zu früh auf den Markt geworfen worden, sagt Wales: "Es dreht sich alles um die Beteiligung der Öffentlichkeit. Als Open-Source-Projekt müssen wir es der Öffentlichkeit zur Verfügung stellen, damit es verbessert werden kann." Auf engagierte Freiwillige setzt Wales auch bei der Einbindung weiterer Sprachen. Bis dato kann nämlich fast nur mit englischen Begriffen gearbeitet werden. Wales ist zuversichtlich, dass dies in wenigen Monaten anders sein wird. Das muss es auch, wenn Wikia der Gefahr entgehen will, dass sich angesichts all der Unzulänglichkeiten Nutzer von der Suchmaschine abwenden - und sich so der menschliche Vorteil gegenüber Google in Luft auflöst. So oder so meinen Experten, dass Wikia nicht an Googles Thron rütteln wird. Das Warten auf einen neuen David im Kampf gegen den Suchmaschinen-Goliath geht weiter."

Years

Languages

Types

  • a 557
  • el 73
  • m 57
  • x 13
  • s 12
  • r 5
  • p 2
  • More… Less…

Subjects

Classifications