Search (258 results, page 1 of 13)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.10
    0.09527735 = product of:
      0.2620127 = sum of:
        0.036539808 = product of:
          0.109619424 = sum of:
            0.109619424 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.109619424 = score(doc=562,freq=2.0), product of:
                0.1950461 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023006115 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.109619424 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.109619424 = score(doc=562,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.109619424 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.109619424 = score(doc=562,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.006234022 = product of:
          0.018702066 = sum of:
            0.018702066 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.018702066 = score(doc=562,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
      0.36363637 = coord(4/11)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.07
    0.06975782 = product of:
      0.25577867 = sum of:
        0.036539808 = product of:
          0.109619424 = sum of:
            0.109619424 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.109619424 = score(doc=862,freq=2.0), product of:
                0.1950461 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023006115 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.109619424 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.109619424 = score(doc=862,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.109619424 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.109619424 = score(doc=862,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.27272728 = coord(3/11)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.06
    0.061492603 = product of:
      0.22547287 = sum of:
        0.109619424 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.109619424 = score(doc=563,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.109619424 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.109619424 = score(doc=563,freq=2.0), product of:
            0.1950461 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023006115 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.006234022 = product of:
          0.018702066 = sum of:
            0.018702066 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.018702066 = score(doc=563,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.27272728 = coord(3/11)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Ruge, G.; Schwarz, C.: ¬Die Leistungsfähigkeit von linguistischen Verfahren in der Massentextverarbeitung (1989) 0.02
    0.019528229 = product of:
      0.07160351 = sum of:
        0.016705163 = weight(_text_:den in 6969) [ClassicSimilarity], result of:
          0.016705163 = score(doc=6969,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.25333852 = fieldWeight in 6969, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=6969)
        0.035127312 = weight(_text_:frankfurt in 6969) [ClassicSimilarity], result of:
          0.035127312 = score(doc=6969,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.36736545 = fieldWeight in 6969, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.0625 = fieldNorm(doc=6969)
        0.019771028 = product of:
          0.059313085 = sum of:
            0.059313085 = weight(_text_:1989 in 6969) [ClassicSimilarity], result of:
              0.059313085 = score(doc=6969,freq=3.0), product of:
                0.11227332 = queryWeight, product of:
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.023006115 = queryNorm
                0.5282919 = fieldWeight in 6969, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6969)
          0.33333334 = coord(1/3)
      0.27272728 = coord(3/11)
    
    Abstract
    Dependenzstrukturen stellen syntagmatische Relationen von Worten in Texten dar. Ihre Anwendungsmöglichkeiten im Information Retrieval werden erläutert. Bei Siemens wurde ein System zur Transformation von Texten in Dependenzstrukturen entwickelt, wobei besonders darauf geachtet wurde, die Wirkung gegen den Aufwand abzuwiegen. Die letzte Version verarbeitet 20 MB Freitext in einer Stunde Realzeit auf einem Siemens BS2000 Großrechner. Analyse-Recall and Analyse-Precision liegen jeweils bei 0,85
    Imprint
    Frankfurt : Indeks
    Year
    1989
  5. Weingarten, R.: ¬Die Verkabelung der Sprache : Grenzen der Technisierung von Kommunikation (1989) 0.02
    0.0170872 = product of:
      0.062653065 = sum of:
        0.014617017 = weight(_text_:den in 7156) [ClassicSimilarity], result of:
          0.014617017 = score(doc=7156,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.2216712 = fieldWeight in 7156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
        0.030736398 = weight(_text_:frankfurt in 7156) [ClassicSimilarity], result of:
          0.030736398 = score(doc=7156,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.32144478 = fieldWeight in 7156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7156)
        0.01729965 = product of:
          0.05189895 = sum of:
            0.05189895 = weight(_text_:1989 in 7156) [ClassicSimilarity], result of:
              0.05189895 = score(doc=7156,freq=3.0), product of:
                0.11227332 = queryWeight, product of:
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.023006115 = queryNorm
                0.4622554 = fieldWeight in 7156, product of:
                  1.7320508 = tf(freq=3.0), with freq of:
                    3.0 = termFreq=3.0
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=7156)
          0.33333334 = coord(1/3)
      0.27272728 = coord(3/11)
    
    Abstract
    Essay über die "Technisierung" der Sprache, von der Schrift als Urform sprachlicher Normierung bis hin zu den jüngsten Technologien.
    Imprint
    Frankfurt : Fischer
    Year
    1989
  6. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.02
    0.015130406 = product of:
      0.041608617 = sum of:
        0.005384123 = product of:
          0.016152369 = sum of:
            0.016152369 = weight(_text_:f in 548) [ClassicSimilarity], result of:
              0.016152369 = score(doc=548,freq=2.0), product of:
                0.09169745 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.023006115 = queryNorm
                0.17614852 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
        0.014467095 = weight(_text_:den in 548) [ClassicSimilarity], result of:
          0.014467095 = score(doc=548,freq=6.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.21939759 = fieldWeight in 548, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.017563656 = weight(_text_:frankfurt in 548) [ClassicSimilarity], result of:
          0.017563656 = score(doc=548,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.18368272 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.00419374 = product of:
          0.01258122 = sum of:
            0.01258122 = weight(_text_:29 in 548) [ClassicSimilarity], result of:
              0.01258122 = score(doc=548,freq=2.0), product of:
                0.08092832 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023006115 = queryNorm
                0.15546128 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.33333334 = coord(1/3)
      0.36363637 = coord(4/11)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
    Date
    29. 3.2009 11:11:45
    Imprint
    Frankfurt a.M. : Lang
  7. Zimmermann, H.H.: Linguistische Verfahren zur Archivierung und zum Wiederfinden unstrukturierter Texte (1983) 0.01
    0.010191604 = product of:
      0.056053817 = sum of:
        0.025317417 = weight(_text_:den in 557) [ClassicSimilarity], result of:
          0.025317417 = score(doc=557,freq=6.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.3839458 = fieldWeight in 557, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=557)
        0.030736398 = weight(_text_:frankfurt in 557) [ClassicSimilarity], result of:
          0.030736398 = score(doc=557,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.32144478 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.0546875 = fieldNorm(doc=557)
      0.18181819 = coord(2/11)
    
    Abstract
    Die technologischen Entwicklungen der 80er und 90er Jahre werden den Bedarf an intelligenten Verfahren in der automatischen Texterschließung und -archivierung sprunghaft steigen lassen. Inzwischen existieren eine Reihe linguistischer Verfahren, die auch große Datenmengen, wie sie in der Büro- und Fachkommunikation auftreten, zu bewältigen helfen. Dabei ist eine wesentliche Zielsetzung, den Anwender von 'technischen' Handhabungen, wie sie die herkömmlichen Informations-Retrieval-Systeme noch erfordern, schrittweise zu entlasten in Richtung auf einen ehe natürlichsprachigen Zugang. Während dabei in den nächsten Jahren 'verstehensorietierte' Ansätze nur in ausgewählten Bereichen zum Einsatz kommen können, werden Verfahren auf morphologisch-syntaktischer Basis die bisherigen oberflächenorientierten Systeme schrittweise ersetzen
    Imprint
    Frankfurt : DGD
  8. Rieger, F.: Lügende Computer (2023) 0.01
    0.009759665 = product of:
      0.035785437 = sum of:
        0.010768246 = product of:
          0.032304738 = sum of:
            0.032304738 = weight(_text_:f in 912) [ClassicSimilarity], result of:
              0.032304738 = score(doc=912,freq=2.0), product of:
                0.09169745 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.023006115 = queryNorm
                0.35229704 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
        0.016705163 = weight(_text_:den in 912) [ClassicSimilarity], result of:
          0.016705163 = score(doc=912,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.25333852 = fieldWeight in 912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.00831203 = product of:
          0.024936087 = sum of:
            0.024936087 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.024936087 = score(doc=912,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.33333334 = coord(1/3)
      0.27272728 = coord(3/11)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
  9. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.009597602 = product of:
      0.052786812 = sum of:
        0.020881454 = weight(_text_:den in 3412) [ClassicSimilarity], result of:
          0.020881454 = score(doc=3412,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.31667316 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
        0.03190536 = product of:
          0.095716074 = sum of:
            0.095716074 = weight(_text_:1989 in 3412) [ClassicSimilarity], result of:
              0.095716074 = score(doc=3412,freq=5.0), product of:
                0.11227332 = queryWeight, product of:
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.023006115 = queryNorm
                0.8525273 = fieldWeight in 3412, product of:
                  2.236068 = tf(freq=5.0), with freq of:
                    5.0 = termFreq=5.0
                  4.8801513 = idf(docFreq=912, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3412)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
    Source
    ABI-Technik. 9(1989), S.309-313
    Year
    1989
  10. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.01
    0.009052184 = product of:
      0.049787015 = sum of:
        0.012528872 = weight(_text_:den in 5882) [ClassicSimilarity], result of:
          0.012528872 = score(doc=5882,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.19000389 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.037258144 = weight(_text_:frankfurt in 5882) [ClassicSimilarity], result of:
          0.037258144 = score(doc=5882,freq=4.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.38964993 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.18181819 = coord(2/11)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Imprint
    Frankfurt am Main : DGI
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  11. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.007543487 = product of:
      0.041489176 = sum of:
        0.010440727 = weight(_text_:den in 5863) [ClassicSimilarity], result of:
          0.010440727 = score(doc=5863,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.15833658 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.03104845 = weight(_text_:frankfurt in 5863) [ClassicSimilarity], result of:
          0.03104845 = score(doc=5863,freq=4.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.32470825 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.18181819 = coord(2/11)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Imprint
    Frankfurt am Main : DGI
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  12. Wagner, J.: Mensch - Computer - Interaktion : Sprachwissenschaftliche Aspekte (2002) 0.01
    0.0070680645 = product of:
      0.038874354 = sum of:
        0.012528872 = weight(_text_:den in 1102) [ClassicSimilarity], result of:
          0.012528872 = score(doc=1102,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.19000389 = fieldWeight in 1102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
        0.026345482 = weight(_text_:frankfurt in 1102) [ClassicSimilarity], result of:
          0.026345482 = score(doc=1102,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.27552408 = fieldWeight in 1102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.046875 = fieldNorm(doc=1102)
      0.18181819 = coord(2/11)
    
    Abstract
    Die Arbeit zeigt, dass die vielerorts beklagten Probleme von Benutzern mit Computern in hohem Maße durch die (zum Teil mangelhafte) sprachliche Gestaltung der jeweiligen Interfaces bedingt sind. Es wird die These vertreten, dass verbale Interface-Elemente trotz des zunächst augenfälligen hohen grafischen Aufwands von Benutzeroberflächen für den Aufbau von Sinn und interaktiver Ordnung bei der Bedienung eines hinreichend komplexen Systems als primär gelten können. Als Basis der Analyse dienen vor allem Aufnahmen der Dialoge von jeweils zwei Benutzern bei der gemeinsamen Arbeit am Computer in Verbindung mit entsprechenden Aufzeichnungen der Bildschirminhalte. Die Arbeit versteht sich als ein Plädoyer für mehr linguistische Kompetenz in der Softwaregestaltung wie auch für stärkere Investitionen der Industrie in die sprachliche Gestaltung von Mensch-Maschine-Schnittstellen.
    Imprint
    Frankfurt : Lang
  13. Schwarz, C.: THESYS: Thesaurus Syntax System : a fully automatic thesaurus building aid (1988) 0.01
    0.0069108047 = product of:
      0.038009424 = sum of:
        0.030736398 = weight(_text_:frankfurt in 1361) [ClassicSimilarity], result of:
          0.030736398 = score(doc=1361,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.32144478 = fieldWeight in 1361, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1361)
        0.0072730253 = product of:
          0.021819076 = sum of:
            0.021819076 = weight(_text_:22 in 1361) [ClassicSimilarity], result of:
              0.021819076 = score(doc=1361,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.2708308 = fieldWeight in 1361, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1361)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Date
    6. 1.1999 10:22:07
    Imprint
    Frankfurt : Indeks
  14. Luckhardt, H.-D.; Schmitt, D.: Saarbrücker Traslationsservice STS : ein Konzept für die computergestützte Übersetzung von Datenbanken in der Fachinformation (1987) 0.01
    0.0067742085 = product of:
      0.07451629 = sum of:
        0.07451629 = weight(_text_:frankfurt in 263) [ClassicSimilarity], result of:
          0.07451629 = score(doc=263,freq=4.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.77929986 = fieldWeight in 263, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.09375 = fieldNorm(doc=263)
      0.09090909 = coord(1/11)
    
    Imprint
    Frankfurt a.M. : DGD
    Source
    9. Online-Frühjahrstagung der Online-Benutzergruppe der DGD, Frankfurt am Main, 12.-14.5.1987: Vorträge
  15. Leinfellner, E.: Semantische Netze und Textzusammenhang (1992) 0.01
    0.0063867844 = product of:
      0.070254624 = sum of:
        0.070254624 = weight(_text_:frankfurt in 5488) [ClassicSimilarity], result of:
          0.070254624 = score(doc=5488,freq=2.0), product of:
            0.09561953 = queryWeight, product of:
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.023006115 = queryNorm
            0.7347309 = fieldWeight in 5488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1562657 = idf(docFreq=1882, maxDocs=44218)
              0.125 = fieldNorm(doc=5488)
      0.09090909 = coord(1/11)
    
    Imprint
    Frankfurt : Lang
  16. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.0059255348 = product of:
      0.03259044 = sum of:
        0.025317417 = weight(_text_:den in 4184) [ClassicSimilarity], result of:
          0.025317417 = score(doc=4184,freq=6.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.3839458 = fieldWeight in 4184, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.0072730253 = product of:
          0.021819076 = sum of:
            0.021819076 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.021819076 = score(doc=4184,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
  17. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.0058234013 = product of:
      0.02135247 = sum of:
        0.005384123 = product of:
          0.016152369 = sum of:
            0.016152369 = weight(_text_:f in 4217) [ClassicSimilarity], result of:
              0.016152369 = score(doc=4217,freq=2.0), product of:
                0.09169745 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.023006115 = queryNorm
                0.17614852 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
        0.011812333 = weight(_text_:den in 4217) [ClassicSimilarity], result of:
          0.011812333 = score(doc=4217,freq=4.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.17913738 = fieldWeight in 4217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.004156015 = product of:
          0.012468044 = sum of:
            0.012468044 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.012468044 = score(doc=4217,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.33333334 = coord(1/3)
      0.27272728 = coord(3/11)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  18. Bischoff, M.: Was steckt hinter ChatGTP & Co? (2023) 0.01
    0.0058203903 = product of:
      0.032012146 = sum of:
        0.023624666 = weight(_text_:den in 1013) [ClassicSimilarity], result of:
          0.023624666 = score(doc=1013,freq=4.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.35827476 = fieldWeight in 1013, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1013)
        0.00838748 = product of:
          0.02516244 = sum of:
            0.02516244 = weight(_text_:29 in 1013) [ClassicSimilarity], result of:
              0.02516244 = score(doc=1013,freq=2.0), product of:
                0.08092832 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023006115 = queryNorm
                0.31092256 = fieldWeight in 1013, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1013)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Abstract
    Erste Sprachmodelle gab es schon in den 1950er Jahren. Doch erst durch den massiven Zuwachs an Computerleistung sind KI-Technologien wie DeepL und GPT heute in der Lage, menschliche Sprache praktisch fehlerfrei zu verarbeiten und zu produzieren. Entscheidend dabei war die Imitation einer ganz besonderen Fähigkeit unseres Gehirns.
    Date
    12. 4.2023 20:29:54
  19. Snajder, J.: Distributional semantics of multi-word expressions (2013) 0.01
    0.0057028737 = product of:
      0.031365804 = sum of:
        0.020881454 = weight(_text_:den in 2868) [ClassicSimilarity], result of:
          0.020881454 = score(doc=2868,freq=2.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.31667316 = fieldWeight in 2868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=2868)
        0.010484351 = product of:
          0.03145305 = sum of:
            0.03145305 = weight(_text_:29 in 2868) [ClassicSimilarity], result of:
              0.03145305 = score(doc=2868,freq=2.0), product of:
                0.08092832 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023006115 = queryNorm
                0.38865322 = fieldWeight in 2868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2868)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Content
    Folien einer Präsentation anlässlich COST Action IC1207 PARSEME Meeting, Warsaw, September 16, 2013. Vgl. den Beitrag: Snajder, J., P. Almic: Modeling semantic compositionality of Croatian multiword expressions. In: Informatica. 39(2015) H.3, S.301-309.
    Date
    29. 4.2016 12:04:50
  20. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.01
    0.0055944496 = product of:
      0.030769471 = sum of:
        0.025574453 = weight(_text_:den in 5557) [ClassicSimilarity], result of:
          0.025574453 = score(doc=5557,freq=12.0), product of:
            0.06594008 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.023006115 = queryNorm
            0.38784382 = fieldWeight in 5557, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.0051950184 = product of:
          0.015585055 = sum of:
            0.015585055 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.015585055 = score(doc=5557,freq=2.0), product of:
                0.08056349 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023006115 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.33333334 = coord(1/3)
      0.18181819 = coord(2/11)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17

Years

Languages

  • d 127
  • e 120
  • f 6
  • m 3
  • ru 2
  • More… Less…

Types

  • a 203
  • el 37
  • m 30
  • s 13
  • x 6
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications