Search (37 results, page 1 of 2)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Computerlinguistik"
  1. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.13
    0.1306592 = product of:
      0.44424126 = sum of:
        0.10988857 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10988857 = score(doc=563,freq=2.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10988857 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10988857 = score(doc=563,freq=2.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10988857 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10988857 = score(doc=563,freq=2.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10988857 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10988857 = score(doc=563,freq=2.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.004686996 = product of:
          0.018747984 = sum of:
            0.018747984 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.018747984 = score(doc=563,freq=2.0), product of:
                0.0807613 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023062602 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.25 = coord(1/4)
      0.29411766 = coord(5/17)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  2. Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010) 0.03
    0.029962385 = product of:
      0.16978684 = sum of:
        0.026493276 = weight(_text_:und in 4018) [ClassicSimilarity], result of:
          0.026493276 = score(doc=4018,freq=14.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.51830536 = fieldWeight in 4018, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.07164678 = weight(_text_:informationswissenschaft in 4018) [ClassicSimilarity], result of:
          0.07164678 = score(doc=4018,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.68963933 = fieldWeight in 4018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
        0.07164678 = weight(_text_:informationswissenschaft in 4018) [ClassicSimilarity], result of:
          0.07164678 = score(doc=4018,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.68963933 = fieldWeight in 4018, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4018)
      0.1764706 = coord(3/17)
    
    Abstract
    Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366
  3. Becks, D.; Schulz, J.M.: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente (2010) 0.02
    0.024598166 = product of:
      0.1393896 = sum of:
        0.022390906 = weight(_text_:und in 4661) [ClassicSimilarity], result of:
          0.022390906 = score(doc=4661,freq=10.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.438048 = fieldWeight in 4661, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
        0.058499347 = weight(_text_:informationswissenschaft in 4661) [ClassicSimilarity], result of:
          0.058499347 = score(doc=4661,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.5630881 = fieldWeight in 4661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
        0.058499347 = weight(_text_:informationswissenschaft in 4661) [ClassicSimilarity], result of:
          0.058499347 = score(doc=4661,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.5630881 = fieldWeight in 4661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
      0.1764706 = coord(3/17)
    
    Abstract
    Der vorliegende Artikel beschreibt einen neuartigen domänenübergreifenden Ansatz zur Extraktion von Phrasen, der sich mit geringem Aufwand und ohne komplexe Lexika umsetzen und auf andere Domänen übertragen lässt. Dies wird anhand von Kundenrezensionen und Patentschriften getestet.
    Series
    Schriften zur Informationswissenschaft; Bd.58
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  4. Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012) 0.02
    0.022075254 = product of:
      0.1250931 = sum of:
        0.021679902 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.021679902 = score(doc=3376,freq=6.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.42413816 = fieldWeight in 3376, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.051706605 = weight(_text_:informationswissenschaft in 3376) [ClassicSimilarity], result of:
          0.051706605 = score(doc=3376,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.051706605 = weight(_text_:informationswissenschaft in 3376) [ClassicSimilarity], result of:
          0.051706605 = score(doc=3376,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
      0.1764706 = coord(3/17)
    
    Source
    SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
  5. Scherer Auberson, K.: Counteracting concept drift in natural language classifiers : proposal for an automated method (2018) 0.02
    0.021615962 = product of:
      0.12249044 = sum of:
        0.015020276 = weight(_text_:und in 2849) [ClassicSimilarity], result of:
          0.015020276 = score(doc=2849,freq=8.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.29385152 = fieldWeight in 2849, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
        0.053735085 = weight(_text_:informationswissenschaft in 2849) [ClassicSimilarity], result of:
          0.053735085 = score(doc=2849,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.5172295 = fieldWeight in 2849, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
        0.053735085 = weight(_text_:informationswissenschaft in 2849) [ClassicSimilarity], result of:
          0.053735085 = score(doc=2849,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.5172295 = fieldWeight in 2849, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2849)
      0.1764706 = coord(3/17)
    
    Abstract
    Natural Language Classifier helfen Unternehmen zunehmend dabei die Flut von Textdaten zu überwinden. Aber diese Classifier, einmal trainiert, verlieren mit der Zeit ihre Nützlichkeit. Sie bleiben statisch, aber die zugrundeliegende Domäne der Textdaten verändert sich: Ihre Genauigkeit nimmt aufgrund eines Phänomens ab, das als Konzeptdrift bekannt ist. Die Frage ist ob Konzeptdrift durch die Ausgabe eines Classifiers zuverlässig erkannt werden kann, und falls ja: ist es möglich dem durch nachtrainieren des Classifiers entgegenzuwirken. Es wird eine System-Implementierung mittels Proof-of-Concept vorgestellt, bei der das Konfidenzmass des Classifiers zur Erkennung von Konzeptdrift verwendet wird. Der Classifier wird dann iterativ neu trainiert, indem er Stichproben mit niedrigem Konfidenzmass auswählt, sie korrigiert und im Trainingsset der nächsten Iteration verwendet. Die Leistung des Classifiers wird über die Zeit gemessen, und die Leistung des Systems beobachtet. Basierend darauf werden schließlich Empfehlungen gegeben, die sich bei der Implementierung solcher Systeme als nützlich erweisen können.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
    Series
    Churer Schriften zur Informationswissenschaft / Arbeitsbereich Informationswissenschaft; Schrift 98
  6. Hahn, U.: Methodische Grundlagen der Informationslinguistik (2013) 0.02
    0.021373196 = product of:
      0.121114776 = sum of:
        0.017701564 = weight(_text_:und in 719) [ClassicSimilarity], result of:
          0.017701564 = score(doc=719,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34630734 = fieldWeight in 719, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
        0.051706605 = weight(_text_:informationswissenschaft in 719) [ClassicSimilarity], result of:
          0.051706605 = score(doc=719,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
        0.051706605 = weight(_text_:informationswissenschaft in 719) [ClassicSimilarity], result of:
          0.051706605 = score(doc=719,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=719)
      0.1764706 = coord(3/17)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  7. Ludwig, B.; Reischer, J.: Informationslinguistik in Regensburg (2012) 0.02
    0.01855085 = product of:
      0.10512148 = sum of:
        0.022390906 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.022390906 = score(doc=555,freq=10.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.438048 = fieldWeight in 555, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.041365284 = weight(_text_:informationswissenschaft in 555) [ClassicSimilarity], result of:
          0.041365284 = score(doc=555,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.3981634 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
        0.041365284 = weight(_text_:informationswissenschaft in 555) [ClassicSimilarity], result of:
          0.041365284 = score(doc=555,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.3981634 = fieldWeight in 555, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=555)
      0.1764706 = coord(3/17)
    
    Abstract
    In ihrem Beitrag stellen die Autoren die Informationslinguistik als Teildisziplin der Informationswissenschaft vor, grenzen sie gegen benachbarte Fächer Theoretische Linguistik, Computerlinguistik und Maschinelle Sprachverarbeitung ab, zeigen aber zugleich auch Gemeinsamkeiten und Überschneidungsbereiche auf. Anwendungsbereiche, Verfahren und Produkte der Informationslinguistik werden in einem kurzen Überblick eingeführt. Einige davon, die im Zentrum der Forschung an der Universität Regensburg stehen, werden unter Bezugnahme auf aktuelle Arbeiten und Forschungsprojekte näher erläutert.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.5, S.292-296
  8. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.02
    0.015866982 = product of:
      0.0899129 = sum of:
        0.017523656 = weight(_text_:und in 3510) [ClassicSimilarity], result of:
          0.017523656 = score(doc=3510,freq=8.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34282678 = fieldWeight in 3510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.036194623 = weight(_text_:informationswissenschaft in 3510) [ClassicSimilarity], result of:
          0.036194623 = score(doc=3510,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.348393 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
        0.036194623 = weight(_text_:informationswissenschaft in 3510) [ClassicSimilarity], result of:
          0.036194623 = score(doc=3510,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.348393 = fieldWeight in 3510, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
      0.1764706 = coord(3/17)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  9. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.01
    0.012568857 = product of:
      0.10683528 = sum of:
        0.094444185 = weight(_text_:buch in 5227) [ClassicSimilarity], result of:
          0.094444185 = score(doc=5227,freq=12.0), product of:
            0.10722657 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023062602 = queryNorm
            0.8807909 = fieldWeight in 5227, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.012391096 = weight(_text_:und in 5227) [ClassicSimilarity], result of:
          0.012391096 = score(doc=5227,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.24241515 = fieldWeight in 5227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.11764706 = coord(2/17)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
    Content
    Das Buch enthält eine Einleitung, in der die Vorgehensweise zur Erstellung des Buches geschildert wird.
    Source
    https://www.heise.de/newsticker/meldung/Erstes-wissenschaftliches-Buch-eines-Algorithmus-veroeffentlicht-4399858.html
  10. Kocijan, K.: Visualizing natural language resources (2015) 0.01
    0.01216626 = product of:
      0.10341321 = sum of:
        0.051706605 = weight(_text_:informationswissenschaft in 2995) [ClassicSimilarity], result of:
          0.051706605 = score(doc=2995,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 2995, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2995)
        0.051706605 = weight(_text_:informationswissenschaft in 2995) [ClassicSimilarity], result of:
          0.051706605 = score(doc=2995,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 2995, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=2995)
      0.11764706 = coord(2/17)
    
    Series
    Schriften zur Informationswissenschaft; Bd.66
  11. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.00
    0.003620863 = product of:
      0.030777335 = sum of:
        0.024528008 = weight(_text_:und in 1490) [ClassicSimilarity], result of:
          0.024528008 = score(doc=1490,freq=12.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.47985753 = fieldWeight in 1490, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.006249328 = product of:
          0.024997313 = sum of:
            0.024997313 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.024997313 = score(doc=1490,freq=2.0), product of:
                0.0807613 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023062602 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.25 = coord(1/4)
      0.11764706 = coord(2/17)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  12. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.00
    0.0033410424 = product of:
      0.02839886 = sum of:
        0.01652429 = weight(_text_:buch in 331) [ClassicSimilarity], result of:
          0.01652429 = score(doc=331,freq=2.0), product of:
            0.10722657 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023062602 = queryNorm
            0.1541063 = fieldWeight in 331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.0118745705 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.0118745705 = score(doc=331,freq=20.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.23231003 = fieldWeight in 331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.11764706 = coord(2/17)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  13. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.00
    0.0024080689 = product of:
      0.020468585 = sum of:
        0.017343922 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.017343922 = score(doc=4217,freq=24.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.33931053 = fieldWeight in 4217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.003124664 = product of:
          0.012498656 = sum of:
            0.012498656 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.012498656 = score(doc=4217,freq=2.0), product of:
                0.0807613 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023062602 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.25 = coord(1/4)
      0.11764706 = coord(2/17)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  14. Budin, G.: Zum Entwicklungsstand der Terminologiewissenschaft (2019) 0.00
    0.0013636246 = product of:
      0.023181617 = sum of:
        0.023181617 = weight(_text_:und in 5604) [ClassicSimilarity], result of:
          0.023181617 = score(doc=5604,freq=14.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.4535172 = fieldWeight in 5604, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5604)
      0.05882353 = coord(1/17)
    
    Abstract
    In diesem Aufsatz wird der Entwicklungsstand der Terminologiewissenschaft auf 3 Ebenen analysiert: (1) in Bezug auf die Forschungsfragen, die in Forschungsprojekten, universitären Qualifizierungsarbeiten und anderen Forschungskontexten gestellt und auf der Basis empirischer Analysen beantwortet werden, darauf aufbauend (2) in Bezug auf die Methoden, die dabei verwendet werden, die Theorien, die solchen Arbeiten zugrunde gelegt werden, und die Paradigmen, in denen sich die Theorien und Methoden verorten lassen, sowie (3) in Bezug auf die darüber liegende Ebene der Terminologiewissenschaft als Disziplin. Auf allen 3 Ebenen lässt sich feststellen, dass der interdisziplinäre und multiperspektivische Charakter der Terminologiewissenschaft in den letzten Jahrzehnten zugenommen hat und sich weiter verstärkt.
    Series
    Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
  15. Strube, M.: Kreativ durch Analogien (2011) 0.00
    0.0012624711 = product of:
      0.021462008 = sum of:
        0.021462008 = weight(_text_:und in 4805) [ClassicSimilarity], result of:
          0.021462008 = score(doc=4805,freq=12.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.41987535 = fieldWeight in 4805, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4805)
      0.05882353 = coord(1/17)
    
    Content
    "Die Computerlinguistik vereinigt Elemente von Informatik und Linguistik; sie verwendet darüber hinaus Methoden aus weiteren Gebieten wie Mathematik, Psychologie, Statistik und künstliche Intelligenz. Der Reiz und die Herausforderung einer solchen interdisziplinären Wissenschaft liegen darin, Analogien zwischen Konzepten aus weit entfernten Teilgebieten zu erkennen und zu nutzen. Paradebeispiel dafür ist einer der entscheidenden Durchbrüche, welche die Computerlinguistik prägten. Es geht um das »Parsing«: Ein Computerprogramm, genauer gesagt ein Compiler, nimmt Zeichen für Zeichen den Input des Benutzers entgegen, der in diesem Fall seinerseits aus dem Text eines Computerprogramms besteht, und ermittelt dessen Struktur. Im Prinzip dasselbe tut ein Mensch, der einen gesprochenen Satz hört und versteht."
  16. Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019) 0.00
    0.0012495223 = product of:
      0.02124188 = sum of:
        0.02124188 = weight(_text_:und in 4981) [ClassicSimilarity], result of:
          0.02124188 = score(doc=4981,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.41556883 = fieldWeight in 4981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4981)
      0.05882353 = coord(1/17)
    
    Source
    https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
  17. Lobin, H: Computerlinguistik und Texttechnologie (2010) 0.00
    0.001168821 = product of:
      0.019869957 = sum of:
        0.019869957 = weight(_text_:und in 564) [ClassicSimilarity], result of:
          0.019869957 = score(doc=564,freq=14.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.38872904 = fieldWeight in 564, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=564)
      0.05882353 = coord(1/17)
    
    Abstract
    Computerlinguistik (die Verarbeitung von Sprache mit dem Computer) und Texttechnologie (die automatisierte Handhabung elektronischer Texte) haben im letzten Jahrzehnt unterschiedliche Richtungen eingeschlagen. Beide Disziplinen speisen sich jedoch aus der gleichen Quelle: der formalen Grammatik. Deshalb ist eine gemeinsame Darstellung sinnvoll. Der Bezug auf die gemeinsamen Grundlagen und die kontrastierende Gegenüberstellung einzelner Teilbereiche fördern das Verständnis der jeweils anderen Disziplin und eröffnen interessante Querbezüge. Erstmals wird die Verknüpfung von Computerlinguistik und Texttechnologie mit dieser Einführung in knapper Form systematisch vollzogen, was sie insbesondere für Module im Bachelor-Studium geeignet macht.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  18. Computerlinguistik und Sprachtechnologie : Eine Einführung (2010) 0.00
    0.0011406526 = product of:
      0.019391093 = sum of:
        0.019391093 = weight(_text_:und in 1735) [ClassicSimilarity], result of:
          0.019391093 = score(doc=1735,freq=30.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.3793607 = fieldWeight in 1735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1735)
      0.05882353 = coord(1/17)
    
    Abstract
    Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen, der Graphentheorie, den statistischen Verfahren sowie der Texttechnologie beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik und Phonologie, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Die drei letzten Teile des Buchs geben Überblicke über die verwendeten sprachtechnologischen Informationsquellen, die vielfältigen Anwendungen in der Praxis sowie über Evaluationsverfahren für sprachverarbeitende Systeme. Anhand konkreter Fragestellungen - von der Entwicklung von Korrekturprogrammen über das Informationsmanagement bis zur Maschinellen Übersetzung - wird das Zusammenwirken der einzelnen Methoden aufgezeigt. Für die dritte Auflage wurden sämtliche Kapitel überarbeitet und aktualisiert sowie zum Teil zu eigenständigen, neuen Kapiteln zusammengeführt. Insbesondere trägt die dritte Auflage der rasanten Entwicklung in der Computerlinguistik und Sprachtechnologie durch eine stärkere Fokussierung auf statistische Grundlagen und Methoden Rechnung. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand." [Manfred Pinkal]
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  19. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.00
    0.001104432 = product of:
      0.018775344 = sum of:
        0.018775344 = weight(_text_:und in 3194) [ClassicSimilarity], result of:
          0.018775344 = score(doc=3194,freq=18.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.3673144 = fieldWeight in 3194, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.05882353 = coord(1/17)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  20. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.00
    0.001104432 = product of:
      0.018775344 = sum of:
        0.018775344 = weight(_text_:und in 3206) [ClassicSimilarity], result of:
          0.018775344 = score(doc=3206,freq=18.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.3673144 = fieldWeight in 3206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
      0.05882353 = coord(1/17)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.

Languages

  • d 30
  • e 7

Types

  • a 26
  • el 10
  • x 5
  • m 4
  • s 1
  • More… Less…