Search (2 results, page 1 of 1)

  • × author_ss:"Hosbach, W."
  • × theme_ss:"Suchmaschinen"
  1. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.01
    0.006806207 = product of:
      0.02041862 = sum of:
        0.02041862 = product of:
          0.04083724 = sum of:
            0.04083724 = weight(_text_:informationssysteme in 4885) [ClassicSimilarity], result of:
              0.04083724 = score(doc=4885,freq=2.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.15565825 = fieldWeight in 4885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4885)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
  2. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.00
    0.0026280945 = product of:
      0.007884284 = sum of:
        0.007884284 = product of:
          0.015768567 = sum of:
            0.015768567 = weight(_text_:22 in 3221) [ClassicSimilarity], result of:
              0.015768567 = score(doc=3221,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.09672529 = fieldWeight in 3221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3221)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 1.2005 17:11:04