Search (161 results, page 1 of 9)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.14
    0.13531932 = product of:
      0.2255322 = sum of:
        0.054076564 = product of:
          0.16222969 = sum of:
            0.16222969 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16222969 = score(doc=562,freq=2.0), product of:
                0.28865567 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03404757 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16222969 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16222969 = score(doc=562,freq=2.0), product of:
            0.28865567 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03404757 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0092259515 = product of:
          0.027677853 = sum of:
            0.027677853 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.027677853 = score(doc=562,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.11
    0.10942889 = product of:
      0.18238148 = sum of:
        0.16222969 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16222969 = score(doc=563,freq=2.0), product of:
            0.28865567 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03404757 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.010925839 = product of:
          0.032777514 = sum of:
            0.032777514 = weight(_text_:w in 563) [ClassicSimilarity], result of:
              0.032777514 = score(doc=563,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.2526231 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
        0.0092259515 = product of:
          0.027677853 = sum of:
            0.027677853 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.027677853 = score(doc=563,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.09
    0.086522505 = product of:
      0.21630625 = sum of:
        0.054076564 = product of:
          0.16222969 = sum of:
            0.16222969 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.16222969 = score(doc=862,freq=2.0), product of:
                0.28865567 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03404757 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.16222969 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.16222969 = score(doc=862,freq=2.0), product of:
            0.28865567 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03404757 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.4 = coord(2/5)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  4. Müller, P.: Text-Automat mit Tücken (2023) 0.07
    0.07493113 = product of:
      0.18732782 = sum of:
        0.16870841 = weight(_text_:technologie in 481) [ClassicSimilarity], result of:
          0.16870841 = score(doc=481,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.81052876 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.09375 = fieldNorm(doc=481)
        0.018619398 = product of:
          0.05585819 = sum of:
            0.05585819 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.05585819 = score(doc=481,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Ein Coputerprogramm erstaunt derzeit viele Menschen: ChatGPT zeigt, was künstliche Intelligenz zu leisten vermag - und welche Risiken die Technologie mit sich bringt.
    Source
    Pirmasenser Zeitung. Nr. 29 vom 03.02.2023, S.2
  5. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.07
    0.066986054 = product of:
      0.16746514 = sum of:
        0.14059035 = weight(_text_:technologie in 925) [ClassicSimilarity], result of:
          0.14059035 = score(doc=925,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.67544067 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
        0.026874786 = product of:
          0.08062436 = sum of:
            0.08062436 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.08062436 = score(doc=925,freq=6.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
    Source
    https://www.tagesschau.de/wissen/technologie/ki-chatgpt-uni-wissenschaft-101.html
  6. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.06
    0.06275385 = product of:
      0.104589745 = sum of:
        0.08435421 = weight(_text_:technologie in 5629) [ClassicSimilarity], result of:
          0.08435421 = score(doc=5629,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.40526438 = fieldWeight in 5629, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.010925839 = product of:
          0.032777514 = sum of:
            0.032777514 = weight(_text_:w in 5629) [ClassicSimilarity], result of:
              0.032777514 = score(doc=5629,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.2526231 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
        0.009309699 = product of:
          0.027929096 = sum of:
            0.027929096 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.027929096 = score(doc=5629,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.6 = coord(3/5)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05
  7. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.04
    0.04367074 = product of:
      0.109176844 = sum of:
        0.09841324 = weight(_text_:technologie in 4184) [ClassicSimilarity], result of:
          0.09841324 = score(doc=4184,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.47280845 = fieldWeight in 4184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.01076361 = product of:
          0.032290827 = sum of:
            0.032290827 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.032290827 = score(doc=4184,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
  8. Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia : Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000 Fachhochschule Köln (2000) 0.03
    0.03176002 = product of:
      0.07940004 = sum of:
        0.07029518 = weight(_text_:technologie in 5527) [ClassicSimilarity], result of:
          0.07029518 = score(doc=5527,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.33772033 = fieldWeight in 5527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5527)
        0.009104866 = product of:
          0.027314596 = sum of:
            0.027314596 = weight(_text_:w in 5527) [ClassicSimilarity], result of:
              0.027314596 = score(doc=5527,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.21051927 = fieldWeight in 5527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5527)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Content
    Enthält die Beiträge: WRIGHT, S.E.: Leveraging terminology resources across application boundaries: accessing resources in future integrated environments; PALME, K.: E-Commerce: Verhindert Sprache Business-to-business?; RÜEGGER, R.: Die qualität der virtuellen Information als Wettbewerbsvorteil: Information im Internet ist Sprache - noch; SCHIRMER, K. u. J. HALLER: Zugang zu mehrsprachigen Nachrichten im Internet; WEISS, A. u. W. WIEDEN: Die Herstellung mehrsprachiger Informations- und Wissensressourcen in Unternehmen; FULFORD, H.: Monolingual or multilingual web sites? An exploratory study of UK SMEs; SCHMIDTKE-NIKELLA, M.: Effiziente Hypermediaentwicklung: Die Autorenentlastung durch eine Engine; SCHMIDT, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft; HELBIG, H. u.a.: Natürlichsprachlicher Zugang zu Informationsanbietern im Internet und zu lokalen Datenbanken; SIENEL, J. u.a.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts; ERBACH, G.: Sprachdialogsysteme für Telefondienste: Stand der Technik und zukünftige Entwicklungen; SUSEN, A.: Spracherkennung: Akteulle Einsatzmöglichkeiten im Bereich der Telekommunikation; BENZMÜLLER, R.: Logox WebSpeech: die neue Technologie für sprechende Internetseiten; JAARANEN, K. u.a.: Webtran tools for in-company language support; SCHMITZ, K.-D.: Projektforschung und Infrastrukturen im Bereich der Terminologie: Wie kann die Wirtschaft davon profitieren?; SCHRÖTER, F. u. U. MEYER: Entwicklung sprachlicher Handlungskompetenz in englisch mit hilfe eines Multimedia-Sprachlernsystems; KLEIN, A.: Der Einsatz von Sprachverarbeitungstools beim Sprachenlernen im Intranet; HAUER, M.: Knowledge Management braucht Terminologie Management; HEYER, G. u.a.: Texttechnologische Anwendungen am Beispiel Text Mining
  9. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.02
    0.022494456 = product of:
      0.11247227 = sum of:
        0.11247227 = weight(_text_:technologie in 5953) [ClassicSimilarity], result of:
          0.11247227 = score(doc=5953,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.5403525 = fieldWeight in 5953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
      0.2 = coord(1/5)
    
    Abstract
    Der Artikel geht der Frage nach, ob und inwieweit Informations- und Recherchesysteme von der Technologie natürlich sprachlicher Frage-Antwortsysteme, so genannter Question Answering-Systeme, profitieren können. Nach einer allgemeinen Einführung in die Zielsetzung und die historische Entwicklung dieses Sonderzweigs der maschinellen Sprachverarbeitung werden dessen Abgrenzung von herkömmlichen Retrieval- und Extraktionsverfahren erläutert und die besondere Struktur von Question Answering-Systemen sowie einzelne Evaluierungsinitiativen aufgezeichnet. Zudem werden konkrete Anwendungsfelder im Bibliothekswesen vorgestellt.
  10. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.02
    0.02183537 = product of:
      0.054588422 = sum of:
        0.04920662 = weight(_text_:technologie in 5759) [ClassicSimilarity], result of:
          0.04920662 = score(doc=5759,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.23640423 = fieldWeight in 5759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.005381805 = product of:
          0.016145414 = sum of:
            0.016145414 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.016145414 = score(doc=5759,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  11. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.02
    0.01948077 = product of:
      0.09740385 = sum of:
        0.09740385 = weight(_text_:technologie in 5218) [ClassicSimilarity], result of:
          0.09740385 = score(doc=5218,freq=6.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.46795902 = fieldWeight in 5218, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
      0.2 = coord(1/5)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  12. Benzmüller, R.: Logox WebSpeech : Die neue Technologie für sprechende Internetseiten (2000) 0.02
    0.016870841 = product of:
      0.08435421 = sum of:
        0.08435421 = weight(_text_:technologie in 5554) [ClassicSimilarity], result of:
          0.08435421 = score(doc=5554,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.40526438 = fieldWeight in 5554, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=5554)
      0.2 = coord(1/5)
    
  13. Heyer, G.; Läuter, M.; Quasthoff, U.; Wolff, C.: Texttechnologische Anwendungen am Beispiel Text Mining (2000) 0.02
    0.016870841 = product of:
      0.08435421 = sum of:
        0.08435421 = weight(_text_:technologie in 5565) [ClassicSimilarity], result of:
          0.08435421 = score(doc=5565,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.40526438 = fieldWeight in 5565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=5565)
      0.2 = coord(1/5)
    
    Abstract
    Die zunehmende Menge von Informationen und deren weltweite Verfügbarkeit auf der Basis moderner Internet Technologie machen es erforderlich, Informationen nach inhaltlichen Kriterien zu strukturieren und zu bewerten sowie nach inhaltlichen Kriterien weiter zu verarbeiten. Vom Standpunkt des Benutzers aus sind dabei folgende Fälle zu unterscheiden: Handelt es sich bei den gesuchten Informationen um strukturierle Daten (z.B. in einer SQL-Datenbank) oder unstrukturierte Daten (z.B. grosse Texte)? Ist bekannt, welche Daten benötigt werden und wie sie zu finden sind? Oder ist vor dein Zugriff auf die Daten noch nicht bekannt welche Ergebnisse erwartet werden?
  14. Mustafa El Hadi, W.: Evaluating human language technology : general applications to information access and management (2002) 0.02
    0.016188432 = product of:
      0.040471077 = sum of:
        0.021851677 = product of:
          0.06555503 = sum of:
            0.06555503 = weight(_text_:w in 1840) [ClassicSimilarity], result of:
              0.06555503 = score(doc=1840,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.5052462 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1840)
          0.33333334 = coord(1/3)
        0.018619398 = product of:
          0.05585819 = sum of:
            0.05585819 = weight(_text_:29 in 1840) [ClassicSimilarity], result of:
              0.05585819 = score(doc=1840,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.46638384 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1840)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Source
    Knowledge organization. 29(2002) nos.3/4, S.124-134
  15. Liu, S.; Liu, F.; Yu, C.; Meng, W.: ¬An effective approach to document retrieval via utilizing WordNet and recognizing phrases (2004) 0.01
    0.013490358 = product of:
      0.033725895 = sum of:
        0.018209731 = product of:
          0.05462919 = sum of:
            0.05462919 = weight(_text_:w in 4078) [ClassicSimilarity], result of:
              0.05462919 = score(doc=4078,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.42103854 = fieldWeight in 4078, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4078)
          0.33333334 = coord(1/3)
        0.015516165 = product of:
          0.046548493 = sum of:
            0.046548493 = weight(_text_:29 in 4078) [ClassicSimilarity], result of:
              0.046548493 = score(doc=4078,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.38865322 = fieldWeight in 4078, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4078)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    10.10.2005 10:29:08
  16. Lezius, W.; Rapp, R.; Wettler, M.: ¬A morphology-system and part-of-speech tagger for German (1996) 0.01
    0.0134345265 = product of:
      0.033586316 = sum of:
        0.018209731 = product of:
          0.05462919 = sum of:
            0.05462919 = weight(_text_:w in 1693) [ClassicSimilarity], result of:
              0.05462919 = score(doc=1693,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.42103854 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1693)
          0.33333334 = coord(1/3)
        0.015376586 = product of:
          0.046129756 = sum of:
            0.046129756 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.046129756 = score(doc=1693,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.38690117 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1693)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22. 3.2015 9:37:18
  17. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.01
    0.011555212 = product of:
      0.028888028 = sum of:
        0.018026713 = product of:
          0.05408014 = sum of:
            0.05408014 = weight(_text_:w in 3510) [ClassicSimilarity], result of:
              0.05408014 = score(doc=3510,freq=4.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.41680688 = fieldWeight in 3510, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3510)
          0.33333334 = coord(1/3)
        0.010861315 = product of:
          0.032583944 = sum of:
            0.032583944 = weight(_text_:29 in 3510) [ClassicSimilarity], result of:
              0.032583944 = score(doc=3510,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.27205724 = fieldWeight in 3510, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3510)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  18. Mustafa El Hadi, W.: Terminologies, ontologies and information access (2006) 0.01
    0.010792287 = product of:
      0.026980717 = sum of:
        0.014567784 = product of:
          0.04370335 = sum of:
            0.04370335 = weight(_text_:w in 1488) [ClassicSimilarity], result of:
              0.04370335 = score(doc=1488,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.33683082 = fieldWeight in 1488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1488)
          0.33333334 = coord(1/3)
        0.012412932 = product of:
          0.037238795 = sum of:
            0.037238795 = weight(_text_:29 in 1488) [ClassicSimilarity], result of:
              0.037238795 = score(doc=1488,freq=2.0), product of:
                0.11976871 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03404757 = queryNorm
                0.31092256 = fieldWeight in 1488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1488)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    29. 2.2008 16:25:23
  19. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.01
    0.010747622 = product of:
      0.026869053 = sum of:
        0.014567784 = product of:
          0.04370335 = sum of:
            0.04370335 = weight(_text_:w in 1490) [ClassicSimilarity], result of:
              0.04370335 = score(doc=1490,freq=2.0), product of:
                0.12974867 = queryWeight, product of:
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.03404757 = queryNorm
                0.33683082 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.8108058 = idf(docFreq=2659, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.33333334 = coord(1/3)
        0.012301269 = product of:
          0.036903806 = sum of:
            0.036903806 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.036903806 = score(doc=1490,freq=2.0), product of:
                0.11922879 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03404757 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Date
    22. 3.2015 9:30:24
  20. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.009841324 = product of:
      0.04920662 = sum of:
        0.04920662 = weight(_text_:technologie in 5912) [ClassicSimilarity], result of:
          0.04920662 = score(doc=5912,freq=2.0), product of:
            0.20814611 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03404757 = queryNorm
            0.23640423 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.2 = coord(1/5)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."

Years

Languages

  • e 100
  • d 54
  • m 3
  • ru 2
  • More… Less…

Types

  • a 126
  • m 19
  • el 16
  • s 11
  • x 4
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications