Search (325 results, page 1 of 17)

  • × theme_ss:"Computerlinguistik"
  1. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.13
    0.12741873 = product of:
      0.19112808 = sum of:
        0.031597026 = weight(_text_:und in 3510) [ClassicSimilarity], result of:
          0.031597026 = score(doc=3510,freq=8.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.34282678 = fieldWeight in 3510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.08622106 = weight(_text_:theorie in 3510) [ClassicSimilarity], result of:
          0.08622106 = score(doc=3510,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.4004454 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.060044404 = weight(_text_:der in 3510) [ClassicSimilarity], result of:
          0.060044404 = score(doc=3510,freq=28.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.6464053 = fieldWeight in 3510, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.013265575 = product of:
          0.039796725 = sum of:
            0.039796725 = weight(_text_:29 in 3510) [ClassicSimilarity], result of:
              0.039796725 = score(doc=3510,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.27205724 = fieldWeight in 3510, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3510)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  2. Winograd, T.: Software für Sprachverarbeitung (1984) 0.10
    0.09579619 = product of:
      0.19159238 = sum of:
        0.022569306 = weight(_text_:und in 1687) [ClassicSimilarity], result of:
          0.022569306 = score(doc=1687,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 1687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1687)
        0.123172946 = weight(_text_:theorie in 1687) [ClassicSimilarity], result of:
          0.123172946 = score(doc=1687,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.5720649 = fieldWeight in 1687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.078125 = fieldNorm(doc=1687)
        0.045850124 = weight(_text_:der in 1687) [ClassicSimilarity], result of:
          0.045850124 = score(doc=1687,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4935974 = fieldWeight in 1687, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1687)
      0.5 = coord(3/6)
    
    Abstract
    Der Computer kann mit sprachlichen Zeichen sicher und schnell umgehen. Dies zeigen Programme zur Textverarbeitung. Versuche allerdings, ihn auch mit Bedeutungen operieren zu lassen, sind gescheitert. Wird der Rechner das größte Problem der Sprachverarbeitung - die Mehrdeutigkeit natürlicher Sprachen - jemals bewältigen?
    Source
    Spektrum der Wissenschaft. 1984, H.11, S.88-102
    Theme
    Theorie verbaler Dokumentationssprachen
  3. Pinker, S.: Wörter und Regeln : Die Natur der Sprache (2000) 0.09
    0.09276145 = product of:
      0.13914217 = sum of:
        0.031917814 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.031917814 = score(doc=734,freq=16.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.34630734 = fieldWeight in 734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.061586473 = weight(_text_:theorie in 734) [ClassicSimilarity], result of:
          0.061586473 = score(doc=734,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.28603244 = fieldWeight in 734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.036247704 = weight(_text_:der in 734) [ClassicSimilarity], result of:
          0.036247704 = score(doc=734,freq=20.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.390223 = fieldWeight in 734, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=734)
        0.0093901735 = product of:
          0.02817052 = sum of:
            0.02817052 = weight(_text_:22 in 734) [ClassicSimilarity], result of:
              0.02817052 = score(doc=734,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.19345059 = fieldWeight in 734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=734)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Abstract
    Wie lernen Kinder sprechen? Welche Hinweise geben gerade ihre Fehler beim Spracherwerb auf den Ablauf des Lernprozesses - getreu dem Motto: "Kinder sagen die töllsten Sachen«? Und wie helfen beziehungsweise warum scheitern bislang Computer bei der Simulation neuronaler Netzwerke, die am komplizierten Gewebe der menschlichen Sprache mitwirken? In seinem neuen Buch Wörter und Regeln hat der bekannte US-amerikanische Kognitionswissenschaftler Steven Pinker (Der Sprachinstinkt) wieder einmal eine ebenso informative wie kurzweifige Erkundungstour ins Reich der Sprache unternommen. Was die Sache besonders spannend und lesenswert macht: Souverän beleuchtet der Professor am Massachusetts Institute of Technology sowohl natur- als auch geisteswissenschaftliche Aspekte. So vermittelt er einerseits linguistische Grundlagen in den Fußspuren Ferdinand de Saussures, etwa die einer generativen Grammatik, liefert einen Exkurs durch die Sprachgeschichte und widmet ein eigenes Kapitel den Schrecken der deutschen Sprache". Andererseits lässt er aber auch die neuesten bildgebenden Verfahren nicht außen vor, die zeigen, was im Gehirn bei der Sprachverarbeitung abläuft. Pinkers Theorie, die sich in diesem Puzzle verschiedenster Aspekte wiederfindet: Sprache besteht im Kein aus zwei Bestandteilen - einem mentalen Lexikon aus erinnerten Wörtern und einer mentalen Grammatik aus verschiedenen kombinatorischen Regeln. Konkret heißt das: Wir prägen uns bekannte Größen und ihre abgestuften, sich kreuzenden Merkmale ein, aber wir erzeugen auch neue geistige Produkte, in dem wir Regeln anwenden. Gerade daraus, so schließt Pinker, erschließt sich der Reichtum und die ungeheure Ausdruckskraft unserer Sprache
    Date
    19. 7.2002 14:22:31
  4. Wettler, M.; Rapp, R.; Ferber, R.: Freie Assoziationen und Kontiguitäten von Wörtern in Texten (1993) 0.09
    0.08878444 = product of:
      0.2663533 = sum of:
        0.03611089 = weight(_text_:und in 2140) [ClassicSimilarity], result of:
          0.03611089 = score(doc=2140,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.39180204 = fieldWeight in 2140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=2140)
        0.23024242 = product of:
          0.34536362 = sum of:
            0.2543997 = weight(_text_:psychologie in 2140) [ClassicSimilarity], result of:
              0.2543997 = score(doc=2140,freq=2.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                1.0399343 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
            0.090963945 = weight(_text_:29 in 2140) [ClassicSimilarity], result of:
              0.090963945 = score(doc=2140,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.6218451 = fieldWeight in 2140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2140)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Date
    4.11.1998 14:30:29
    Source
    Zeitschrift für Psychologie. 201(1993), S.99-108
  5. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.08
    0.08242416 = product of:
      0.16484831 = sum of:
        0.040373202 = weight(_text_:und in 5979) [ClassicSimilarity], result of:
          0.040373202 = score(doc=5979,freq=10.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.438048 = fieldWeight in 5979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.098538354 = weight(_text_:theorie in 5979) [ClassicSimilarity], result of:
          0.098538354 = score(doc=5979,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.45765188 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.025936747 = weight(_text_:der in 5979) [ClassicSimilarity], result of:
          0.025936747 = score(doc=5979,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.27922085 = fieldWeight in 5979, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
      0.5 = coord(3/6)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Nhongkai, S.N.; Bentz, H.-J.: Bilinguale Suche mittels Konzeptnetzen (2006) 0.08
    0.080293 = product of:
      0.160586 = sum of:
        0.03611089 = weight(_text_:und in 3914) [ClassicSimilarity], result of:
          0.03611089 = score(doc=3914,freq=8.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.39180204 = fieldWeight in 3914, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.098538354 = weight(_text_:theorie in 3914) [ClassicSimilarity], result of:
          0.098538354 = score(doc=3914,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.45765188 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.025936747 = weight(_text_:der in 3914) [ClassicSimilarity], result of:
          0.025936747 = score(doc=3914,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.27922085 = fieldWeight in 3914, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
      0.5 = coord(3/6)
    
    Abstract
    Eine neue Methode der Volltextsuche in bilingualen Textsammlungen wird vorgestellt und anhand eines parallelen Textkorpus (Englisch-Deutsch) geprüft. Die Brücke liefern passende Wortcluster, die aus einer Kookkurrenzanalyse stammen, geliefert von der neuartigen Suchmaschine SENTRAX (Essente Extractor Engine). Diese Cluster repräsentieren Konzepte, die sich in beiden Textsammlungen finden. Die Hypothese ist, dass das Finden mittels solcher Strukturvergleiche erfolgreich möglich ist.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.08
    0.07682135 = product of:
      0.1536427 = sum of:
        0.03532655 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.03532655 = score(doc=5978,freq=10.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.08622106 = weight(_text_:theorie in 5978) [ClassicSimilarity], result of:
          0.08622106 = score(doc=5978,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.4004454 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.032095086 = weight(_text_:der in 5978) [ClassicSimilarity], result of:
          0.032095086 = score(doc=5978,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34551817 = fieldWeight in 5978, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
      0.5 = coord(3/6)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.08
    0.076347016 = product of:
      0.15269403 = sum of:
        0.033169966 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.033169966 = score(doc=5964,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.07390377 = weight(_text_:theorie in 5964) [ClassicSimilarity], result of:
          0.07390377 = score(doc=5964,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.34323892 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.045620296 = weight(_text_:der in 5964) [ClassicSimilarity], result of:
          0.045620296 = score(doc=5964,freq=22.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4911232 = fieldWeight in 5964, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.5 = coord(3/6)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  9. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.07
    0.068089284 = product of:
      0.13617857 = sum of:
        0.042822246 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.042822246 = score(doc=5981,freq=20.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.07390377 = weight(_text_:theorie in 5981) [ClassicSimilarity], result of:
          0.07390377 = score(doc=5981,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.34323892 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.01945256 = weight(_text_:der in 5981) [ClassicSimilarity], result of:
          0.01945256 = score(doc=5981,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.20941564 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.5 = coord(3/6)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  10. Ruge, G.: ¬A spreading activation network for automatic generation of thesaurus relationships (1991) 0.07
    0.06624487 = product of:
      0.19873461 = sum of:
        0.17244212 = weight(_text_:theorie in 4506) [ClassicSimilarity], result of:
          0.17244212 = score(doc=4506,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.8008908 = fieldWeight in 4506, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.109375 = fieldNorm(doc=4506)
        0.026292486 = product of:
          0.07887746 = sum of:
            0.07887746 = weight(_text_:22 in 4506) [ClassicSimilarity], result of:
              0.07887746 = score(doc=4506,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.5416616 = fieldWeight in 4506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4506)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    8.10.2000 11:52:22
    Theme
    Theorie verbaler Dokumentationssprachen
  11. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.06
    0.059668228 = product of:
      0.119336456 = sum of:
        0.038301382 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.038301382 = score(doc=6069,freq=36.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.049269177 = weight(_text_:theorie in 6069) [ClassicSimilarity], result of:
          0.049269177 = score(doc=6069,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.22882594 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.031765897 = weight(_text_:der in 6069) [ClassicSimilarity], result of:
          0.031765897 = score(doc=6069,freq=24.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34197432 = fieldWeight in 6069, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.5 = coord(3/6)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  12. Strube, M.: Kreativ durch Analogien (2011) 0.06
    0.057553273 = product of:
      0.115106545 = sum of:
        0.038698297 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.038698297 = score(doc=4805,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.03930829 = weight(_text_:der in 4805) [ClassicSimilarity], result of:
          0.03930829 = score(doc=4805,freq=12.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4231716 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
        0.037099957 = product of:
          0.111299865 = sum of:
            0.111299865 = weight(_text_:psychologie in 4805) [ClassicSimilarity], result of:
              0.111299865 = score(doc=4805,freq=2.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                0.45497125 = fieldWeight in 4805, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4805)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
    Series
    Spektrum der Wissenschaft - Extra: Datengetriebene Wissenschaft
    Source
    Spektrum der Wissenschaft. 2011, H.12, S.30-33
  13. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.06
    0.05568719 = product of:
      0.11137438 = sum of:
        0.06956327 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.06956327 = score(doc=190,freq=76.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.032420933 = weight(_text_:der in 190) [ClassicSimilarity], result of:
          0.032420933 = score(doc=190,freq=16.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 190, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.0093901735 = product of:
          0.02817052 = sum of:
            0.02817052 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.02817052 = score(doc=190,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  14. Schmidt, R.: Maschinelle Text-Ton-Synchronisation in Wissenschaft und Wirtschaft (2000) 0.05
    0.052374057 = product of:
      0.104748115 = sum of:
        0.033853956 = weight(_text_:und in 5559) [ClassicSimilarity], result of:
          0.033853956 = score(doc=5559,freq=18.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.3673144 = fieldWeight in 5559, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.04439419 = weight(_text_:der in 5559) [ClassicSimilarity], result of:
          0.04439419 = score(doc=5559,freq=30.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.47792363 = fieldWeight in 5559, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5559)
        0.026499968 = product of:
          0.0794999 = sum of:
            0.0794999 = weight(_text_:psychologie in 5559) [ClassicSimilarity], result of:
              0.0794999 = score(doc=5559,freq=2.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                0.32497945 = fieldWeight in 5559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5559)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Tonmaterial in Form von Audio- oder Videoaufnahmen spielt in Bereichen der Wissenschaft, die sich mit verbaler Interaktion beschäftigen, eine bedeutende Rolle. Solche Gebiete sind u,a. die Linguistik, Psychologie, Soziologie und Kriminalistik. Gegenstand der Untersuchung können dabei z.B. die Formen des sprachlichen Handelns und der Sprachvariation in Abhängigkeit von der Situation oder die Ausprägung und Entwicklung von Sprachunterschieden vor dem sozialen Hintergrund sein. Im Rahmen der Analyse eines Gesprächsverlaufs kann beispielsweise die Form der Rederechtsicherung von Interesse sein. In diesem Zusammenhang stellen sich Fragen wie z.B. "Wie bringen Gesprächsteilnehrner Gesprächsbeteiligte dazu, ihre Rede zu unterbrechen?" oder "Wie wehren Gesprächsteilnehmer Unterbrechungsversuche voll anderen Teilnehmern ab?". Denkbar ist hier u.a. nach dem Vorkommen von "ausreden lassen" zu suchen, wobei diese beiden Wörter nicht unbedingt nebeneinander auftreten müssen. Bei der Suche nach Stellen an denen ein Gesprächsteilnehmer Ansprüche oder Forderungen an einen Gesprächspartner stellt, können die flektierten Formen der Modalverben wie z.B. "müssen", "sollen" oder "dürfen" für die Anfrage wichtig sein, während Konnektiva wie "aber", "ja aber" oder "doch" auf oppositive Gesprächsabschnitte verweisen können. Näheres zur gesprächsanalytischen Methodik kann Deppermann (1999) und Brünner et al. (1999) entnommen werden. In dem Bereich der Linguistik, die den Gebrauch von gesprochener Sprache in offiziellen und privaten Situationen zum Gegenstand hat, sind u.a. auch Aussprachevarianten von großem Interesse. Von der Untersuchung der Sprachfärbungen erhofft man sich detaillierte Aussagen über die Sprechersituation und die regionale (König (1988)) und soziale Herkunft des Sprechers machen zu können. In der Kriminalistik wirken solche Ergebnisse unterstützend bei der Identifizierung von Personen
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  15. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.05
    0.046481997 = product of:
      0.09296399 = sum of:
        0.029856382 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.029856382 = score(doc=1714,freq=14.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.025630997 = weight(_text_:der in 1714) [ClassicSimilarity], result of:
          0.025630997 = score(doc=1714,freq=10.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.27592933 = fieldWeight in 1714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
        0.037476614 = product of:
          0.11242984 = sum of:
            0.11242984 = weight(_text_:psychologie in 1714) [ClassicSimilarity], result of:
              0.11242984 = score(doc=1714,freq=4.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                0.45959038 = fieldWeight in 1714, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1714)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    CV 3500 Psychologie / Sozialpsychologie / Kommunikation, Massenmedien, soziale Beeinflussung, soziale Macht
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    CV 3500 Psychologie / Sozialpsychologie / Kommunikation, Massenmedien, soziale Beeinflussung, soziale Macht
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
  16. Zue, V.: Dein Computer spricht mir dir (1999) 0.04
    0.044276223 = product of:
      0.088552445 = sum of:
        0.038301382 = weight(_text_:und in 4244) [ClassicSimilarity], result of:
          0.038301382 = score(doc=4244,freq=4.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41556883 = fieldWeight in 4244, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4244)
        0.027510073 = weight(_text_:der in 4244) [ClassicSimilarity], result of:
          0.027510073 = score(doc=4244,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.29615843 = fieldWeight in 4244, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4244)
        0.022740986 = product of:
          0.068222955 = sum of:
            0.068222955 = weight(_text_:29 in 4244) [ClassicSimilarity], result of:
              0.068222955 = score(doc=4244,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.46638384 = fieldWeight in 4244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4244)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Durch Spracherkennungs- und Sprachsynthesesysteme wird man schon bald Informationen einholen und Befehle erteilen können, ohne auch nur einen Finger zu rühren
    Date
    31.12.1996 19:29:41
    Source
    Spektrum der Wissenschaft. 1999, H.12, S.66-68
  17. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.04
    0.044180486 = product of:
      0.08836097 = sum of:
        0.03582766 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
          0.03582766 = score(doc=1746,freq=14.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.38872904 = fieldWeight in 1746, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.04126511 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.04126511 = score(doc=1746,freq=18.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.011268208 = product of:
          0.03380462 = sum of:
            0.03380462 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.03380462 = score(doc=1746,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  18. Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019) 0.04
    0.039116643 = product of:
      0.07823329 = sum of:
        0.033169966 = weight(_text_:und in 3547) [ClassicSimilarity], result of:
          0.033169966 = score(doc=3547,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.35989314 = fieldWeight in 3547, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
        0.03369282 = weight(_text_:der in 3547) [ClassicSimilarity], result of:
          0.03369282 = score(doc=3547,freq=12.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.36271852 = fieldWeight in 3547, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3547)
        0.011370493 = product of:
          0.034111477 = sum of:
            0.034111477 = weight(_text_:29 in 3547) [ClassicSimilarity], result of:
              0.034111477 = score(doc=3547,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.23319192 = fieldWeight in 3547, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3547)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Anwendungen von maschinellen Lernverfahren (ML) haben in jüngster Zeit aufsehenerregende Durchbrüche bei einer ganzen Reihe von Aufgaben in der maschinellen Sprachverarbeitung (NLP) erzielt. Der Fokus vieler Arbeiten liegt hierbei in der Entwicklung immer besserer Modelle, während der Anteil der Aufgaben in praktischen Projekten, der sich nicht mit Modellbildung, sondern mit Themen wie Datenbereitstellung sowie Evaluierung, Wartung und Deployment von Modellen beschäftigt, oftmals noch nicht ausreichend Beachtung erfährt. Im Ergebnis fehlen gerade Unternehmen, die nicht die Möglichkeit haben, eigene Plattformen für den Einsatz von ML und NLP zu entwerfen, oft geeignete Werkzeuge und Best Practices. Es ist zeichnet sich ab, dass in den kommenden Monaten eine gerade diesen praktischen Fragen zugewandte Ingenieurssicht auf ML und ihren Einsatz im Unternehmen an Bedeutung gewinnen wird.
    Date
    2. 9.2019 19:29:24
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.2/3, S.134-140
  19. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.04
    0.038795475 = product of:
      0.07759095 = sum of:
        0.044226624 = weight(_text_:und in 1490) [ClassicSimilarity], result of:
          0.044226624 = score(doc=1490,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.47985753 = fieldWeight in 1490, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.01834005 = weight(_text_:der in 1490) [ClassicSimilarity], result of:
          0.01834005 = score(doc=1490,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.19743896 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.015024277 = product of:
          0.04507283 = sum of:
            0.04507283 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.04507283 = score(doc=1490,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  20. Wahlster, W.: Verbmobil : Erkennung, Analyse, Transfer, Generierung und Synthese von Spontansprache (2001) 0.04
    0.038590975 = product of:
      0.07718195 = sum of:
        0.038301382 = weight(_text_:und in 5629) [ClassicSimilarity], result of:
          0.038301382 = score(doc=5629,freq=16.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41556883 = fieldWeight in 5629, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.027510073 = weight(_text_:der in 5629) [ClassicSimilarity], result of:
          0.027510073 = score(doc=5629,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.29615843 = fieldWeight in 5629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5629)
        0.011370493 = product of:
          0.034111477 = sum of:
            0.034111477 = weight(_text_:29 in 5629) [ClassicSimilarity], result of:
              0.034111477 = score(doc=5629,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.23319192 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5629)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Verbmobil ist ein langfristig angelegtes, interdisziplinäres Leitprojekt im Bereich der Sprachtechnologie. Das Verbmobil-System erkennt gesprochene Spontansprache, analysiert die Eingabe, übersetzt sie in eine Fremdsprache, erzeugt einen Satz und spricht ihn aus. Für ausgewählte Themenbereiche (z.B. Terminverhandlung, Reiseplanung, Fernwartung) soll Verbmobil Übersetzungshilfe in Gesprächssituationen mit ausländischen Partnern leisten. Das Verbundvorhaben, in dem Unternehmen der Informationstechnologie, Universitäten und Forschungszentren kooperieren, wird vom Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie (BMBF) in zwei Phasen (Laufzeit Phase 1: 1993-1996; Phase 2: 1997 - 2000) gefördert. Nachdem in der ersten Phase Terminverhandlungsdialoge zwischen einem deutschen und japanischen Geschäftspartner mit Englisch als Zwischensprache verarbeitet wurden, steht in der zweiten Phase von Verbmobil die robuste und bidirektionale Übersetzung spontansprachlicher Dialoge aus den Domänen Reiseplanung und Hotelreservierung für die Sprachpaare Deutsch-Englisch (ca. 10. 000 Wörter) und Deutsch-Japanisch (ca. 2.500 Wörter) im Vordergrund
    Date
    29. 1.1997 18:49:05

Authors

Years

Languages

  • d 219
  • e 98
  • m 4
  • ru 3
  • f 1
  • More… Less…

Types

  • a 239
  • m 49
  • el 44
  • s 19
  • x 13
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications