Search (11 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × type_ss:"el"
  1. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.02
    0.023968806 = product of:
      0.095875226 = sum of:
        0.095875226 = sum of:
          0.06255538 = weight(_text_:da in 1490) [ClassicSimilarity], result of:
            0.06255538 = score(doc=1490,freq=2.0), product of:
              0.1475006 = queryWeight, product of:
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.030740997 = queryNorm
              0.42410251 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.7981725 = idf(docFreq=990, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
          0.033319846 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
            0.033319846 = score(doc=1490,freq=2.0), product of:
              0.107649736 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.030740997 = queryNorm
              0.30952093 = fieldWeight in 1490, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1490)
      0.25 = coord(1/4)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  2. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.02
    0.021045186 = product of:
      0.04209037 = sum of:
        0.014722392 = weight(_text_:m in 866) [ClassicSimilarity], result of:
          0.014722392 = score(doc=866,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=866)
        0.027367977 = product of:
          0.054735955 = sum of:
            0.054735955 = weight(_text_:da in 866) [ClassicSimilarity], result of:
              0.054735955 = score(doc=866,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.3710897 = fieldWeight in 866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=866)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
  3. Artemenko, O.; Shramko, M.: Entwicklung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2005) 0.01
    0.010522593 = product of:
      0.021045186 = sum of:
        0.007361196 = weight(_text_:m in 572) [ClassicSimilarity], result of:
          0.007361196 = score(doc=572,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.09622806 = fieldWeight in 572, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.02734375 = fieldNorm(doc=572)
        0.013683989 = product of:
          0.027367977 = sum of:
            0.027367977 = weight(_text_:da in 572) [ClassicSimilarity], result of:
              0.027367977 = score(doc=572,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.18554485 = fieldWeight in 572, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=572)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Verbreitung des Internets vermehrt sich die Menge der im World Wide Web verfügbaren Dokumente. Die Gewährleistung eines effizienten Zugangs zu gewünschten Informationen für die Internetbenutzer wird zu einer großen Herausforderung an die moderne Informationsgesellschaft. Eine Vielzahl von Werkzeugen wird bereits eingesetzt, um den Nutzern die Orientierung in der wachsenden Informationsflut zu erleichtern. Allerdings stellt die enorme Menge an unstrukturierten und verteilten Informationen nicht die einzige Schwierigkeit dar, die bei der Entwicklung von Werkzeugen dieser Art zu bewältigen ist. Die zunehmende Vielsprachigkeit von Web-Inhalten resultiert in dem Bedarf an Sprachidentifikations-Software, die Sprache/en von elektronischen Dokumenten zwecks gezielter Weiterverarbeitung identifiziert. Solche Sprachidentifizierer können beispielsweise effektiv im Bereich des Multilingualen Information Retrieval eingesetzt werden, da auf den Sprachidentifikationsergebnissen Prozesse der automatischen Indexbildung wie Stemming, Stoppwörterextraktion etc. aufbauen. In der vorliegenden Arbeit wird das neue System "LangIdent" zur Sprachidentifikation von elektronischen Textdokumenten vorgestellt, das in erster Linie für Lehre und Forschung an der Universität Hildesheim verwendet werden soll. "LangIdent" enthält eine Auswahl von gängigen Algorithmen zu der monolingualen Sprachidentifikation, die durch den Benutzer interaktiv ausgewählt und eingestellt werden können. Zusätzlich wurde im System ein neuer Algorithmus implementiert, der die Identifikation von Sprachen, in denen ein multilinguales Dokument verfasst ist, ermöglicht. Die Identifikation beschränkt sich nicht nur auf eine Aufzählung von gefundenen Sprachen, vielmehr wird der Text in monolinguale Abschnitte aufgeteilt, jeweils mit der Angabe der identifizierten Sprache.
  4. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.00
    0.0042063976 = product of:
      0.01682559 = sum of:
        0.01682559 = weight(_text_:m in 956) [ClassicSimilarity], result of:
          0.01682559 = score(doc=956,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.21994986 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.25 = coord(1/4)
    
  5. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.00
    0.0041649807 = product of:
      0.016659923 = sum of:
        0.016659923 = product of:
          0.033319846 = sum of:
            0.033319846 = weight(_text_:22 in 835) [ClassicSimilarity], result of:
              0.033319846 = score(doc=835,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.30952093 = fieldWeight in 835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=835)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    29.12.2022 18:22:55
  6. Rieger, F.: Lügende Computer (2023) 0.00
    0.0041649807 = product of:
      0.016659923 = sum of:
        0.016659923 = product of:
          0.033319846 = sum of:
            0.033319846 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.033319846 = score(doc=912,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    16. 3.2023 19:22:55
  7. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    0.0037179654 = product of:
      0.014871862 = sum of:
        0.014871862 = weight(_text_:m in 3206) [ClassicSimilarity], result of:
          0.014871862 = score(doc=3206,freq=4.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19441006 = fieldWeight in 3206, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.25 = coord(1/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
  8. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.00
    0.003680598 = product of:
      0.014722392 = sum of:
        0.014722392 = weight(_text_:m in 5227) [ClassicSimilarity], result of:
          0.014722392 = score(doc=5227,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.19245613 = fieldWeight in 5227, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.25 = coord(1/4)
    
  9. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.0029322833 = product of:
      0.011729133 = sum of:
        0.011729133 = product of:
          0.023458267 = sum of:
            0.023458267 = weight(_text_:da in 3385) [ClassicSimilarity], result of:
              0.023458267 = score(doc=3385,freq=2.0), product of:
                0.1475006 = queryWeight, product of:
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.030740997 = queryNorm
                0.15903844 = fieldWeight in 3385, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.7981725 = idf(docFreq=990, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3385)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  10. Sprachtechnologie : ein Überblick (2012) 0.00
    0.0026289986 = product of:
      0.010515994 = sum of:
        0.010515994 = weight(_text_:m in 1750) [ClassicSimilarity], result of:
          0.010515994 = score(doc=1750,freq=2.0), product of:
            0.07649739 = queryWeight, product of:
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.030740997 = queryNorm
            0.13746867 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.4884486 = idf(docFreq=9980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.25 = coord(1/4)
    
    Type
    m
  11. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0020824904 = product of:
      0.008329961 = sum of:
        0.008329961 = product of:
          0.016659923 = sum of:
            0.016659923 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.016659923 = score(doc=4217,freq=2.0), product of:
                0.107649736 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030740997 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 1.2018 11:32:44