Search (5 results, page 1 of 1)

  • × author_ss:"Hosbach, W."
  1. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.02
    0.02425717 = product of:
      0.08490009 = sum of:
        0.0787355 = weight(_text_:suchmaschine in 3221) [ClassicSimilarity], result of:
          0.0787355 = score(doc=3221,freq=12.0), product of:
            0.20581384 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03639982 = queryNorm
            0.3825569 = fieldWeight in 3221, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3221)
        0.0061645913 = product of:
          0.012329183 = sum of:
            0.012329183 = weight(_text_:22 in 3221) [ClassicSimilarity], result of:
              0.012329183 = score(doc=3221,freq=2.0), product of:
                0.12746596 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03639982 = queryNorm
                0.09672529 = fieldWeight in 3221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3221)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Gibt es eine Suche jenseits von Google? Bislang nicht. Nun ist MSN mit einer neuen Suchmaschine angetreten, die es mit Google aufnehmen soll. PC Magazin macht eine Stichprobe.
    Content
    Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen"
    Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
    Date
    22. 1.2005 17:11:04
  2. Hosbach, W.: Wühltische im Web : Suchmaschinen im Vergleich (2000) 0.02
    0.018367792 = product of:
      0.12857454 = sum of:
        0.12857454 = weight(_text_:suchmaschine in 4657) [ClassicSimilarity], result of:
          0.12857454 = score(doc=4657,freq=2.0), product of:
            0.20581384 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03639982 = queryNorm
            0.62471277 = fieldWeight in 4657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=4657)
      0.14285715 = coord(1/7)
    
    Abstract
    Welche Suchmaschine findet wirklich, was Sie suchen? Die meisten liefern Ihnen Tausende von unpassenden treffern und zwingen Sie zu unnützen Seitengewühle. ein guter Suchroboter dagegen erspart Ihnen Zeit und Ärger
  3. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.01
    0.013775842 = product of:
      0.09643089 = sum of:
        0.09643089 = weight(_text_:suchmaschine in 4885) [ClassicSimilarity], result of:
          0.09643089 = score(doc=4885,freq=18.0), product of:
            0.20581384 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03639982 = queryNorm
            0.46853453 = fieldWeight in 4885, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
      0.14285715 = coord(1/7)
    
    Content
    "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
    Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"
  4. Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008) 0.01
    0.007953486 = product of:
      0.055674404 = sum of:
        0.055674404 = weight(_text_:suchmaschine in 1797) [ClassicSimilarity], result of:
          0.055674404 = score(doc=1797,freq=6.0), product of:
            0.20581384 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03639982 = queryNorm
            0.27050856 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Suchmaschine und das Online-Lexikon greifen sich gegenseitig an. Beide wollen es besser können als der andere.
    Content
    Knol? Knol ist bekannter unter dem Namen gPedia oder auch Googlepedia, ein Online-Lexikon wie Wikipedia. Google greift Wikipedia an. Warum? Weil Wikipedia Google angegriffen hat. Denn vor zirka einem Jahr verkündete Wiki-Gründer Jimmy Wales, dass er eine eigene Suchmaschine konzipiert, die nach Wiki-Prinzipien arbeitet. Die Verantwortlichen bei Google, die eh in jedem Bereich des Internets Fuß fassen möchten, griffen den Fehdehandschuh auf und riefen Knol ins Leben. Wikia Search kann der Besucher schon ausprobieren (search.wikia.com/wiki/Search_Wikia/de), zu Knol gibt es nur einen Bild (www.google.com/help/knol_screenshot.ht ml) und eine Reihe von Ideen (knolstuff.com). Beide Neuschöpfungen versuchen, die Fehler des konkurrierenden Vorbilds zu vermeiden, um auf Dauer besser zu sein. Das Nachschlagewerk Der Hauptunterschied zwischen Knol - der Name kommt von Knowledge - und Wikipedia betrifft die Rolle der Autoren. Bei Wiki sind Autoren und Leser etwa gleichwertig, so dass der Leser, wenn er einen Fehler findet, sofort in die Rolle des Autors wechselt und Korrekturen oder Ergänzungen unmittelbar am Text vornimmt. Anders bei Knol, denn hier rückt der Autor stärker in den Vordergrund. Er ist mit Bild rechts oben in der Ecke seines Textes sichtbar und der Leser findet Informationen über ihn. Im Zentrum steht nicht die Weisheit der Vielen, sondern die Sachkunde des Experten. Dieser behält im Folgenden die Kontrolle über seinen Text, indem er beispielsweise Ergänzungen genehmigt oder nicht. So ist eine gewisse Einheitlichkeit gewahrt. Wem der Text also nicht gefällt, kann diesen nicht ändern. Aber er kann selbst einen Text zum gleichen Thema schreiben. Verschiedene Sichtweisen eines Themas konkurrieren also nicht in einem Text wie bei Wikipedia, was oft zu skurrilen Grabenkämpfen führt, sondern in eigenständigen Werken. Der Leser hat dann die Wahl, wobei Bewertungen anderer Leser ihm bei der Auswahl helfen. Denn jeder Leser kann einen Knol-Artikel kommentieren oder rezensieren (ohne dass der Autor das zensieren könnte) und mit Sternchen bewerten. So gibt es für die Gemeinschaft die Möglichkeit, eine qualitative Auswahl und ein Ranking von Texten vorzunehmen.
    Die Teilnahme der Anwender erfolgt über zwei Werkzeuge. Einmal gibt es die Miniartikel, die ein Suchwort kurz erklären oder verschiedene Bedeutungen eines Begriffs aufzeigen. Dieses Wissen soll die Suchmaschine einmal verwenden, um die Suchergebnisse in einen besseren Kontext zu binden (handelt es sich um den britischen oder den afrikanischen Jaguar?). Ferner kann jeder Suchende bis zu fünf Sternchen für einzelne Treffer vergeben. Das soll künftig ebenfalls das Ergebnis beeinflussen und verbessern. Wie man sieht, sind die interessanten und Erfolg versprechenden Funktionen bislang noch abgeschaltet. Weiter beachtenswert ist bei Wikia die Möglichkeit, den Index zu wechseln. Für viele lexikalische Suchen eignet sich die White List, die nur eine zwar lange, aber festgelegte Liste von Seiten durchsucht. Spam ist dabei fast ausgeschlossen, während die Treffer zwar nicht allumfassend sind, aber eine hohe Relevanz besitzen. Sowohl Wikia als auch Knol sehen nach viel versprechenden Neuansätzen aus und beide haben eins gemeinsam: Sie bringen frischen Wind in festgefügte Strukturen, denn sowohl dem allmächtigen Google als auch der selbstherrlichen Wikipedia kann ein bisschen Konkurrenz nicht schaden."
  5. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.00
    0.004591948 = product of:
      0.032143634 = sum of:
        0.032143634 = weight(_text_:suchmaschine in 4730) [ClassicSimilarity], result of:
          0.032143634 = score(doc=4730,freq=2.0), product of:
            0.20581384 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03639982 = queryNorm
            0.15617819 = fieldWeight in 4730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4730)
      0.14285715 = coord(1/7)
    
    Content
    "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.