Search (65 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.05
    0.04559299 = product of:
      0.06838948 = sum of:
        0.050990574 = product of:
          0.2039623 = sum of:
            0.2039623 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.2039623 = score(doc=562,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.25 = coord(1/4)
        0.017398907 = product of:
          0.034797814 = sum of:
            0.034797814 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.034797814 = score(doc=562,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.04
    0.044501316 = product of:
      0.13350394 = sum of:
        0.13350394 = sum of:
          0.08710686 = weight(_text_:da in 1490) [ClassicSimilarity], result of:
            0.08710686 = score(doc=1490,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.42410251 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
          0.046397086 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
            0.046397086 = score(doc=1490,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.30952093 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
      0.33333334 = coord(1/3)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  3. Hagn-Meincke, L.L.: Sprogspil pa tvaers : sprogfilosofiske teoriers betydning for indeksering og emnesogning (1999) 0.02
    0.021776713 = product of:
      0.06533014 = sum of:
        0.06533014 = product of:
          0.13066028 = sum of:
            0.13066028 = weight(_text_:da in 4643) [ClassicSimilarity], result of:
              0.13066028 = score(doc=4643,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.63615376 = fieldWeight in 4643, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4643)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Language
    da
  4. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.02
    0.019469326 = product of:
      0.058407977 = sum of:
        0.058407977 = sum of:
          0.03810925 = weight(_text_:da in 5759) [ClassicSimilarity], result of:
            0.03810925 = score(doc=5759,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.18554485 = fieldWeight in 5759, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5759)
          0.020298725 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
            0.020298725 = score(doc=5759,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.1354154 = fieldWeight in 5759, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=5759)
      0.33333334 = coord(1/3)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22
  5. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.02
    0.019469326 = product of:
      0.058407977 = sum of:
        0.058407977 = sum of:
          0.03810925 = weight(_text_:da in 4044) [ClassicSimilarity], result of:
            0.03810925 = score(doc=4044,freq=2.0), product of:
              0.20539105 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0428061 = queryNorm
              0.18554485 = fieldWeight in 4044, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
          0.020298725 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
            0.020298725 = score(doc=4044,freq=2.0), product of:
              0.14989968 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0428061 = queryNorm
              0.1354154 = fieldWeight in 4044, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
      0.33333334 = coord(1/3)
    
    Content
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  6. Egger, W.: Helferlein für jedermann : Elektronische Wörterbücher (2004) 0.02
    0.018147264 = product of:
      0.054441787 = sum of:
        0.054441787 = product of:
          0.108883575 = sum of:
            0.108883575 = weight(_text_:da in 1501) [ClassicSimilarity], result of:
              0.108883575 = score(doc=1501,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5301281 = fieldWeight in 1501, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1501)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Zahllose online-dictionaries und einzelne, teilweise ausgezeichnete elektronische Wörterbücher wollen hier nicht erwähnt werden, da ihre Vorzüge teilweise folgenden Nachteilen gegenüber stehen: Internet-Verbindung, CD-Rom, bzw. zeitaufwändiges Aufrufen der Wörterbücher oder Wechsel der Sprachrichtung sind erforderlich.
  7. Wolfangel, E.: Ich verstehe (2017) 0.02
    0.018147264 = product of:
      0.054441787 = sum of:
        0.054441787 = product of:
          0.108883575 = sum of:
            0.108883575 = weight(_text_:da in 3976) [ClassicSimilarity], result of:
              0.108883575 = score(doc=3976,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5301281 = fieldWeight in 3976, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3976)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Computer werden immer besser darin, den Sinn von Sprache zu entschlüsseln. Das ist zwar bequem, wenn man seinem Handy einfach sagen kann, was es tun soll, ohne tippen zu müssen. Aber das bedeutet auch, dass sich E-Mails und andere Botschaften maschinell auswerten lassen. Da wird inzwischen sogar den Forschern mulmig.
  8. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.02
    0.016996859 = product of:
      0.050990574 = sum of:
        0.050990574 = product of:
          0.2039623 = sum of:
            0.2039623 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.2039623 = score(doc=862,freq=2.0), product of:
                0.3629106 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0428061 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  9. Warner, A.J.: Natural language processing (1987) 0.02
    0.015465695 = product of:
      0.046397086 = sum of:
        0.046397086 = product of:
          0.09279417 = sum of:
            0.09279417 = weight(_text_:22 in 337) [ClassicSimilarity], result of:
              0.09279417 = score(doc=337,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.61904186 = fieldWeight in 337, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=337)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Annual review of information science and technology. 22(1987), S.79-108
  10. McMahon, J.G.; Smith, F.J.: Improved statistical language model performance with automatic generated word hierarchies (1996) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 3164) [ClassicSimilarity], result of:
              0.0811949 = score(doc=3164,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 3164, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3164)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Computational linguistics. 22(1996) no.2, S.217-248
  11. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.0811949 = score(doc=4506,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    8.10.2000 11:52:22
  12. Somers, H.: Example-based machine translation : Review article (1999) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 6672) [ClassicSimilarity], result of:
              0.0811949 = score(doc=6672,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 6672, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6672)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    31. 7.1996 9:22:19
  13. New tools for human translators (1997) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 1179) [ClassicSimilarity], result of:
              0.0811949 = score(doc=1179,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 1179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1179)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    31. 7.1996 9:22:19
  14. Baayen, R.H.; Lieber, H.: Word frequency distributions and lexical semantics (1997) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 3117) [ClassicSimilarity], result of:
              0.0811949 = score(doc=3117,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 3117, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3117)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    28. 2.1999 10:48:22
  15. ¬Der Student aus dem Computer (2023) 0.01
    0.013532484 = product of:
      0.04059745 = sum of:
        0.04059745 = product of:
          0.0811949 = sum of:
            0.0811949 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
              0.0811949 = score(doc=1079,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.5416616 = fieldWeight in 1079, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1079)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    27. 1.2023 16:22:55
  16. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.01
    0.012703083 = product of:
      0.03810925 = sum of:
        0.03810925 = product of:
          0.0762185 = sum of:
            0.0762185 = weight(_text_:da in 866) [ClassicSimilarity], result of:
              0.0762185 = score(doc=866,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.3710897 = fieldWeight in 866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=866)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
  17. Byrne, C.C.; McCracken, S.A.: ¬An adaptive thesaurus employing semantic distance, relational inheritance and nominal compound interpretation for linguistic support of information retrieval (1999) 0.01
    0.011599272 = product of:
      0.034797814 = sum of:
        0.034797814 = product of:
          0.06959563 = sum of:
            0.06959563 = weight(_text_:22 in 4483) [ClassicSimilarity], result of:
              0.06959563 = score(doc=4483,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.46428138 = fieldWeight in 4483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    15. 3.2000 10:22:37
  18. Boleda, G.; Evert, S.: Multiword expressions : a pain in the neck of lexical semantics (2009) 0.01
    0.011599272 = product of:
      0.034797814 = sum of:
        0.034797814 = product of:
          0.06959563 = sum of:
            0.06959563 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.06959563 = score(doc=4888,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.46428138 = fieldWeight in 4888, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    1. 3.2013 14:56:22
  19. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.01
    0.011599272 = product of:
      0.034797814 = sum of:
        0.034797814 = product of:
          0.06959563 = sum of:
            0.06959563 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.06959563 = score(doc=5429,freq=2.0), product of:
                0.14989968 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0428061 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    c't. 2000, H.22, S.230-231
  20. Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998) 0.01
    0.010888357 = product of:
      0.03266507 = sum of:
        0.03266507 = product of:
          0.06533014 = sum of:
            0.06533014 = weight(_text_:da in 2528) [ClassicSimilarity], result of:
              0.06533014 = score(doc=2528,freq=2.0), product of:
                0.20539105 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0428061 = queryNorm
                0.31807688 = fieldWeight in 2528, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2528)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.

Years

Languages

  • e 37
  • d 27
  • da 1
  • More… Less…

Types

  • a 48
  • el 8
  • m 7
  • s 4
  • x 3
  • p 2
  • d 1
  • More… Less…

Classifications