Search (2 results, page 1 of 1)

  • × author_ss:"Talbot, D."
  • × type_ss:"el"
  1. Talbot, D.: Wolfram Alpha vs. Google (2009) 0.01
    0.006633372 = product of:
      0.03980023 = sum of:
        0.03980023 = weight(_text_:neue in 2820) [ClassicSimilarity], result of:
          0.03980023 = score(doc=2820,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.27008536 = fieldWeight in 2820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=2820)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Kampf ist eröffnet: Als vergangene Woche der britische Physiker Stephen Wolfram erstmals der Öffentlichkeit die neue "Antwortmaschine" Wolfram Alpha[1] vorstellte, kündigte Google einen eigenen neuen Dienst an. Wolfram Alpha greift auf Datenbanken zurück, die von Wolfram Research betrieben werden, und wendet auf ihre Inhalte Algorithmen an, um Antworten auf Fragen zu generieren, die Nutzer stellen. Mit dem vom Wolfram-Team vorab zur Verfügung gestellten Login machte ich die Probe aufs Exempel: Wolfram Alpha vs. Google (in der Standardform). Ich gab jeweils die gleichen Anfragen ein und variierte sie in einigen Fällen, um zu sehen, was passiert. Auf diese Weise wollte ich jenseits der allgemeineren Beschreibungen, die ich bei einem Besuch bei Wolfram Research[2] bekommen hatte, einige reale Ergebnisse produzieren. Und natürlich den Anspruch der neuen Maschine überprüfen: Antworten aus Suchanfragen zu "berechnen". Hier ist das Ergebnis meines Tests. [06.06.2009]
  2. Talbot, D.: Durchblick im Infodschungel (2009) 0.00
    0.003316686 = product of:
      0.019900115 = sum of:
        0.019900115 = weight(_text_:neue in 2865) [ClassicSimilarity], result of:
          0.019900115 = score(doc=2865,freq=2.0), product of:
            0.14736167 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03616927 = queryNorm
            0.13504268 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.16666667 = coord(1/6)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.