Search (676 results, page 1 of 34)

  • × theme_ss:"Computerlinguistik"
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.27
    0.26623964 = product of:
      0.64658195 = sum of:
        0.048494346 = product of:
          0.14548303 = sum of:
            0.14548303 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.14548303 = score(doc=562,freq=2.0), product of:
                0.2588583 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030532904 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.14548303 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.14548303 = score(doc=562,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.14548303 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.14548303 = score(doc=562,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.14548303 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.14548303 = score(doc=562,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.14548303 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.14548303 = score(doc=562,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.0037451112 = weight(_text_:in in 562) [ClassicSimilarity], result of:
          0.0037451112 = score(doc=562,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.09017298 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.01241036 = product of:
          0.02482072 = sum of:
            0.02482072 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.02482072 = score(doc=562,freq=2.0), product of:
                0.106921025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030532904 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.4117647 = coord(7/17)
    
    Abstract
    Document representations for text classification are typically based on the classical Bag-Of-Words paradigm. This approach comes with deficiencies that motivate the integration of features on a higher semantic level than single words. In this paper we propose an enhancement of the classical document representation through concepts extracted from background knowledge. Boosting is used for actual classification. Experimental evaluations on two well known text corpora support our approach through consistent improvement of the results.
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.22
    0.2247929 = product of:
      0.6369132 = sum of:
        0.048494346 = product of:
          0.14548303 = sum of:
            0.14548303 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.14548303 = score(doc=862,freq=2.0), product of:
                0.2588583 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.030532904 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.14548303 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.14548303 = score(doc=862,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.14548303 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.14548303 = score(doc=862,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.14548303 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.14548303 = score(doc=862,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.14548303 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.14548303 = score(doc=862,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.006486723 = weight(_text_:in in 862) [ClassicSimilarity], result of:
          0.006486723 = score(doc=862,freq=6.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.1561842 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3529412 = coord(6/17)
    
    Abstract
    This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges- summary and question answering- prompt ChatGPT to produce original content (98-99%) from a single text entry and sequential questions initially posed by Turing in 1950. We score the original and generated content against the OpenAI GPT-2 Output Detector from 2019, and establish multiple cases where the generated content proves original and undetectable (98%). The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, overall quality, and plagiarism risks. While Turing's original prose scores at least 14% below the machine-generated output, whether an algorithm displays hints of Turing's true initial thoughts (the "Lovelace 2.0" test) remains unanswerable.
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.21
    0.21272358 = product of:
      0.6027168 = sum of:
        0.14548303 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14548303 = score(doc=563,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14548303 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14548303 = score(doc=563,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14548303 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14548303 = score(doc=563,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14548303 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14548303 = score(doc=563,freq=2.0), product of:
            0.2588583 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.030532904 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.008374324 = weight(_text_:in in 563) [ClassicSimilarity], result of:
          0.008374324 = score(doc=563,freq=10.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.20163295 = fieldWeight in 563, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.01241036 = product of:
          0.02482072 = sum of:
            0.02482072 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.02482072 = score(doc=563,freq=2.0), product of:
                0.106921025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030532904 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.3529412 = coord(6/17)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.11
    0.11454212 = product of:
      0.21635732 = sum of:
        0.025261087 = weight(_text_:buch in 91) [ClassicSimilarity], result of:
          0.025261087 = score(doc=91,freq=6.0), product of:
            0.14195877 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.030532904 = queryNorm
            0.17794664 = fieldWeight in 91, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.027128382 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.027128382 = score(doc=91,freq=134.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.013406621 = product of:
          0.026813243 = sum of:
            0.026813243 = weight(_text_:bibliothekswesen in 91) [ClassicSimilarity], result of:
              0.026813243 = score(doc=91,freq=8.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.19700313 = fieldWeight in 91, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
        0.038724057 = weight(_text_:informationswissenschaft in 91) [ClassicSimilarity], result of:
          0.038724057 = score(doc=91,freq=16.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.28154406 = fieldWeight in 91, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.026813243 = weight(_text_:bibliothekswesen in 91) [ClassicSimilarity], result of:
          0.026813243 = score(doc=91,freq=8.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.19700313 = fieldWeight in 91, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.038186576 = weight(_text_:datenverarbeitung in 91) [ClassicSimilarity], result of:
          0.038186576 = score(doc=91,freq=4.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.19769529 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.0189042 = weight(_text_:einsatz in 91) [ClassicSimilarity], result of:
          0.0189042 = score(doc=91,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.1169668 = fieldWeight in 91, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.0061157416 = weight(_text_:in in 91) [ClassicSimilarity], result of:
          0.0061157416 = score(doc=91,freq=48.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.14725187 = fieldWeight in 91, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.021817423 = weight(_text_:der in 91) [ClassicSimilarity], result of:
          0.021817423 = score(doc=91,freq=84.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.31988767 = fieldWeight in 91, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
      0.5294118 = coord(9/17)
    
    Abstract
    Der vorliegende Band enthält Beiträge namhafter Autoren aus den Bereichen Informationswissenschaft, Computerlinguistik, Kommunikationswissenschaft, Bibliothekswesen und verwandten Fächern. Es werden sowohl aktuelle theoretische Themen behandelt, etwa zu Medientheorie und Internet, zum Verhältnis von Information und kulturellem Gedächtnis oder über Information im Museum, als auch praktische Anwendungen und Vorschläge gegeben, wie z.B. zur Automatischen Indexierung und zur Wissensrepräsentation.
    BK
    06.30 Bibliothekswesen
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    06.30 Bibliothekswesen
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt: Information und Sprache und mehr - eine Einleitung - Information und Kommunikation Wolf Rauch: Auch Information ist eine Tochter der Zeit Winfried Lenders: Information und kulturelles Gedächtnis Rainer Hammwöhner: Anmerkungen zur Grundlegung der Informationsethik Hans W. Giessen: Ehrwürdig stille Informationen Gernot Wersig: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Johann Haller, Anja Rütten: Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Rainer Kuhlen: In Richtung Summarizing für Diskurse in K3 Werner Schweibenz: Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung Manfred Thiel: Bedingt wahrscheinliche Syntaxbäume Jürgen Krause: Shell Model, Semantic Web and Web Information Retrieval Elisabeth Niggemann: Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek Christa Womser-Hacker: Zur Rolle von Eigennamen im Cross-Language Information Retrieval Klaus-Dirk Schmitz: Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
    Jiri Panyr: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? Heinz-Dieter Maas: Indexieren mit AUTINDEX Wilhelm Gaus, Rainer Kaluscha: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten Klaus Lepsky: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte - Analysen und Entwicklungen Ilse Harms: Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen August- Wilhelm Scheer, Dirk Werth: Geschäftsregel-basiertes Geschäftsprozessmanagement Thomas Seeger: Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland Bernd Hagenau: Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 - Persönliches Jorgo Chatzimarkakis: Sprache und Information in Europa Alfred Gulden: 7 Briefe und eine Anmerkung Günter Scholdt: Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens Wolfgang Müller: Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden Heinz-Dirk Luckhardt: Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann Schriftenverzeichnis Harald H. Zimmermanns 1967-2005 - Projekte in Verantwortung von Harald H. Zimmermann - Adressen der Beiträgerinnen und Beiträger
    Footnote
    Rez. in Mitt. VÖB 59(2006) Nr.3, S.75-78 (O. Oberhauser): "Beim vorliegenden Buch handelt es sich um die Festschrift zum 65. Geburtstag des mit Ende des Sommersemesters 2006 in den Ruhestand getretenen Universitätsprofessors für Informationswissenschaft, Harald H. Zimmermann, jenes 1941 in Völklingen geborenen Computerlinguisten, der die Informationswissenschaft als akademische Disziplin in Deutschland mitbegründet und seit 1980 an der Universität des Saarlandes vertreten hat. Die insgesamt 26 Beiträge des von Professor Zimmermanns Mitarbeitern betreuten, optisch gediegen anmutenden Saur-Bandes gliedern sich - so das Inhaltsverzeichnis - in vier Themenschwerpunkte: - Information und Kommunikation - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung - Analysen und Entwicklungen - Persönliches Die Aufsätze selbst variieren, wie bei Festschriften üblich bzw. unvermeidbar, hinsichtlich Länge, Stil, thematischem Detail und Anspruchsniveau. Neben wissenschaftlichen Beiträgen findet man hier auch Reminiszenzen und Literarisches. Die nachfolgende Auswahl zeigt, was mich selbst an diesem Buch interessiert hat:
    In Information und kulturelles Gedächtnis (S. 7-15) plädiert der Kommunikationswissenschaftler Winfried Lenders (Bonn) dafür, Information nicht mit dem zu identifizieren, was heute als (kulturelles) Gedächtnis bezeichnet wird. Information ist ein Prozess bzw. Vorgang und kein manifestes Substrat; sie setzt aber ein solches Substrat, nämlich das im (kulturellen) Gedächtnis abgespeicherte Wissen, voraus. Allerdings führt nicht jedes Informieren zu einer Vermehrung des kulturellen Gedächtnisses - das notwendige Auswahlkriterium liegt jedoch nicht in der grundsätzliche Möglichkeit zum Speichern von Inhalten. Es liegt auch nicht ausschliesslich in formalisierten Aussonderungsmechanismen wie Skartieren, Zitationsindizes und Relevanzrangreihen, sondern in der gesellschaftlichen Kommunikation schlechthin. Auch an die Verfügbarkeit des Schriftlichen ist das kulturelle Gedächtnis nicht gebunden, zumal ja auch in Kulturen der Oralität gesellschaftlich Wichtiges aufbewahrt wird. Rainer Hammwöhner (Regensburg) geht in Anmerkungen zur Grundlegung der Informationsethik (S. 17-27) zunächst auf die "Überversorgung" des Informationssektors mit Spezialethiken ein, wobei er neben der (als breiter angesehenen) Informationsethik konkurrierende Bereichsethiken wie Medienethik, Computerethik und Netzethik/Cyberethik thematisiert und Überlappungen, Abgrenzung, Hierarchisierung etc. diskutiert. Versuche einer diskursethischen wie einer normenethischen Begründung der Informationsethik sind nach Hammwöhner zum Scheitern verurteilt, sodass er einen pragmatistischen Standpunkt einnimmt, wonach Informationsethik ganz einfach "die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster" zu leisten habe. In diesem Konnex werden Fragen wie jene nach dem Guten, aber auch Aspekte wie die Bewahrung des kulturellen Erbes für spätere Generationen und der Erhalt der kulturellen Mannigfaltigkeit angesprochen. Der Beitrag des vor kurzem verstorbenen Gründungsvaters der deutschen Informationswissenschaft, Gernot Wersig (Berlin), ist mit Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (S. 35-46) überschrieben. Der Autor gibt darin einen kurzen Überblick über bisherige medientheoretische Ansätze und versucht sodann - ausgehend von den Werken Niklas Luhmanns und Herbert Stachowiaks - eine "vereinheitlichte Medientheorie" zu entwickeln. Dabei werden die Faktoren Kommunikation, Medien, Medienplattformen und -typologien, Medienevolution und schließlich die digitale Revolution diskutiert. Das Internet, so folgert Wersig, sei eine Medienplattform mit dem Potential, eine ganze Epoche zu gestalten. In Anlehnung an den bekannten Begriff "Gutenberg-Galaxis" spricht er hier auch von einer "Internet-Galaxie". Obwohl dieser Artikel viele interessante Gedanken enthält, erschließt er sich dem Leser leider nur schwer, da vieles vorausgesetzt wird und auch der gewählte Soziologenjargon nicht jedermanns Sache ist.
    In Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (S. 139-151) gibt Jiri Panyr (München/Saarbrücken) eine gut lesbare und nützliche Übersicht über die im Titel des Beitrags genannten semantischen Repräsentationsformen, die im Zusammenhang mit dem Internet und insbesondere mit dem vorgeschlagenen Semantic Web immer wieder - und zwar häufig unpräzise oder gar unrichtig - Anwendung finden. Insbesondere die Ausführungen zum Modebegriff Ontologie zeigen, dass dieser nicht leichtfertig als Quasi-Synonym zu Thesaurus oder Klassifikation verwendet werden darf. Panyrs Beitrag ist übrigens thematisch verwandt mit jenem von K.-D. Schmitz (Köln), Wörterbuch, Thesaurus, Terminologie, Ontologie (S. 129-137). Abgesehen von dem einfallslosen Titel Wer suchet, der findet? (S. 107- 118) - zum Glück mit dem Untertitel Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek versehen - handelt es sich bei diesem Artikel von Elisabeth Niggemann (Frankfurt am Main) zwar um keinen wissenschaftlichen, doch sicherlich den praktischsten, lesbarsten und aus bibliothekarischer Sicht interessantesten des Buches. Niggemann gibt einen Überblick über die bisherige sachliche Erschliessung der bibliographischen Daten der inzwischen zur Deutschen Nationalbibliothek mutierten DDB, sowie einen Statusbericht nebst Ausblick über gegenwärtige bzw. geplante Verbesserungen der inhaltlichen Suche. Dazu zählen der breite Einsatz eines automatischen Indexierungsverfahrens (MILOS/IDX) ebenso wie Aktivitäten im klassifikatorischen Bereich (DDC), die Vernetzung nationaler Schlagwortsysteme (Projekt MACS) sowie die Beschäftigung mit Crosskonkordanzen (CARMEN) und Ansätzen zur Heterogenitätsbehandlung. Das hier von zentraler Stelle deklarierte "commitment" hinsichtlich der Verbesserung der sachlichen Erschließung des nationalen Online-Informationssystems erfüllt den eher nur Kleinmut und Gleichgültigkeit gewohnten phäakischen Beobachter mit Respekt und wehmutsvollem Neid.
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Linguistische Datenverarbeitung / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Linguistische Datenverarbeitung / Aufsatzsammlung
  5. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.09
    0.0876122 = product of:
      0.29788145 = sum of:
        0.07764863 = weight(_text_:allgemeines in 190) [ClassicSimilarity], result of:
          0.07764863 = score(doc=190,freq=4.0), product of:
            0.17420313 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.030532904 = queryNorm
            0.44573617 = fieldWeight in 190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.051076166 = weight(_text_:und in 190) [ClassicSimilarity], result of:
          0.051076166 = score(doc=190,freq=76.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.7547594 = fieldWeight in 190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.13500993 = weight(_text_:datenverarbeitung in 190) [ClassicSimilarity], result of:
          0.13500993 = score(doc=190,freq=8.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.69895834 = fieldWeight in 190, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.02380476 = weight(_text_:der in 190) [ClassicSimilarity], result of:
          0.02380476 = score(doc=190,freq=16.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34902605 = fieldWeight in 190, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=190)
        0.010341967 = product of:
          0.020683935 = sum of:
            0.020683935 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.020683935 = score(doc=190,freq=2.0), product of:
                0.106921025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030532904 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.29411766 = coord(5/17)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    Date
    14. 4.2007 10:04:22
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  6. Dietze, J.: Einführung in die Informationslinguistik : die linguistische Datenverarbeitung in der Informationswissenschaft (1989) 0.08
    0.076129936 = product of:
      0.32355222 = sum of:
        0.095837146 = weight(_text_:informationswissenschaft in 5084) [ClassicSimilarity], result of:
          0.095837146 = score(doc=5084,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.696786 = fieldWeight in 5084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.109375 = fieldNorm(doc=5084)
        0.1890139 = weight(_text_:datenverarbeitung in 5084) [ClassicSimilarity], result of:
          0.1890139 = score(doc=5084,freq=2.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.9785417 = fieldWeight in 5084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.109375 = fieldNorm(doc=5084)
        0.015135688 = weight(_text_:in in 5084) [ClassicSimilarity], result of:
          0.015135688 = score(doc=5084,freq=6.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.3644298 = fieldWeight in 5084, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.109375 = fieldNorm(doc=5084)
        0.02356551 = weight(_text_:der in 5084) [ClassicSimilarity], result of:
          0.02356551 = score(doc=5084,freq=2.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34551817 = fieldWeight in 5084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=5084)
      0.23529412 = coord(4/17)
    
    Footnote
    Rez. in: Knowledge organization 20(1993) no.1, S.59-60 (E. Mater)
  7. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.07
    0.073783316 = product of:
      0.25086325 = sum of:
        0.022961862 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.022961862 = score(doc=4891,freq=6.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.10800794 = weight(_text_:datenverarbeitung in 4891) [ClassicSimilarity], result of:
          0.10800794 = score(doc=4891,freq=2.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.55916667 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.0756168 = weight(_text_:einsatz in 4891) [ClassicSimilarity], result of:
          0.0756168 = score(doc=4891,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.4678672 = fieldWeight in 4891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.008648965 = weight(_text_:in in 4891) [ClassicSimilarity], result of:
          0.008648965 = score(doc=4891,freq=6.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.2082456 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.035627704 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.035627704 = score(doc=4891,freq=14.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.29411766 = coord(5/17)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  8. Seelbach, D.: Computerlinguistik und Dokumentation : keyphrases in Dokumentationsprozessen (1975) 0.06
    0.062519275 = product of:
      0.26570693 = sum of:
        0.043339558 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.043339558 = score(doc=299,freq=38.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.6404345 = fieldWeight in 299, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.19842327 = weight(_text_:datenverarbeitung in 299) [ClassicSimilarity], result of:
          0.19842327 = score(doc=299,freq=12.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            1.0272548 = fieldWeight in 299, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.0037451112 = weight(_text_:in in 299) [ClassicSimilarity], result of:
          0.0037451112 = score(doc=299,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.09017298 = fieldWeight in 299, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.020199008 = weight(_text_:der in 299) [ClassicSimilarity], result of:
          0.020199008 = score(doc=299,freq=8.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.29615843 = fieldWeight in 299, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
      0.23529412 = coord(4/17)
    
    Classification
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
    RSWK
    Linguistische Datenverarbeitung / Dokumentation (BVB)
    RVK
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
    Subject
    Linguistische Datenverarbeitung / Dokumentation (BVB)
  9. Engerer, V.: Informationswissenschaft und Linguistik. : kurze Geschichte eines fruchtbaren interdisziplinäaren Verhäaltnisses in drei Akten (2012) 0.06
    0.05609629 = product of:
      0.23840922 = sum of:
        0.028702328 = weight(_text_:und in 3376) [ClassicSimilarity], result of:
          0.028702328 = score(doc=3376,freq=6.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.42413816 = fieldWeight in 3376, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.06845511 = weight(_text_:informationswissenschaft in 3376) [ClassicSimilarity], result of:
          0.06845511 = score(doc=3376,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.49770427 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.13500993 = weight(_text_:datenverarbeitung in 3376) [ClassicSimilarity], result of:
          0.13500993 = score(doc=3376,freq=2.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.69895834 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
        0.0062418524 = weight(_text_:in in 3376) [ClassicSimilarity], result of:
          0.0062418524 = score(doc=3376,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.15028831 = fieldWeight in 3376, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3376)
      0.23529412 = coord(4/17)
    
    Source
    SDV - Sprache und Datenverarbeitung. International journal for language data processing. 36(2012) H.2, S.71-91 [= E-Books - Fakten, Perspektiven und Szenarien] 36/2 (2012), S. 71-91
  10. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.05
    0.053334214 = product of:
      0.18133631 = sum of:
        0.032472976 = weight(_text_:und in 5953) [ClassicSimilarity], result of:
          0.032472976 = score(doc=5953,freq=12.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.47985753 = fieldWeight in 5953, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.03791965 = product of:
          0.0758393 = sum of:
            0.0758393 = weight(_text_:bibliothekswesen in 5953) [ClassicSimilarity], result of:
              0.0758393 = score(doc=5953,freq=4.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.557209 = fieldWeight in 5953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5953)
          0.5 = coord(1/2)
        0.0758393 = weight(_text_:bibliothekswesen in 5953) [ClassicSimilarity], result of:
          0.0758393 = score(doc=5953,freq=4.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.557209 = fieldWeight in 5953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.0049934816 = weight(_text_:in in 5953) [ClassicSimilarity], result of:
          0.0049934816 = score(doc=5953,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.120230645 = fieldWeight in 5953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.030110905 = weight(_text_:der in 5953) [ClassicSimilarity], result of:
          0.030110905 = score(doc=5953,freq=10.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.44148692 = fieldWeight in 5953, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
      0.29411766 = coord(5/17)
    
    Abstract
    Der Artikel geht der Frage nach, ob und inwieweit Informations- und Recherchesysteme von der Technologie natürlich sprachlicher Frage-Antwortsysteme, so genannter Question Answering-Systeme, profitieren können. Nach einer allgemeinen Einführung in die Zielsetzung und die historische Entwicklung dieses Sonderzweigs der maschinellen Sprachverarbeitung werden dessen Abgrenzung von herkömmlichen Retrieval- und Extraktionsverfahren erläutert und die besondere Struktur von Question Answering-Systemen sowie einzelne Evaluierungsinitiativen aufgezeichnet. Zudem werden konkrete Anwendungsfelder im Bibliothekswesen vorgestellt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.3-11
  11. Bátori, I.: ¬Der sprachliche Verarbeitungsprozeß als paradigmatischer Kern der linguistischen Datenverarbeitung (1982) 0.05
    0.050436635 = product of:
      0.28580758 = sum of:
        0.028122423 = weight(_text_:und in 8422) [ClassicSimilarity], result of:
          0.028122423 = score(doc=8422,freq=4.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.41556883 = fieldWeight in 8422, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=8422)
        0.22911946 = weight(_text_:datenverarbeitung in 8422) [ClassicSimilarity], result of:
          0.22911946 = score(doc=8422,freq=4.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            1.1861718 = fieldWeight in 8422, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.09375 = fieldNorm(doc=8422)
        0.028565714 = weight(_text_:der in 8422) [ClassicSimilarity], result of:
          0.028565714 = score(doc=8422,freq=4.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.4188313 = fieldWeight in 8422, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=8422)
      0.1764706 = coord(3/17)
    
    Series
    Sprache und Information; 4
    Source
    Linguistische Datenverarbeitung: Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und Künstlicher Intelligenz. Hrsg.: I. Bátori u.a
  12. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.05
    0.048547506 = product of:
      0.16506152 = sum of:
        0.037202466 = weight(_text_:und in 4) [ClassicSimilarity], result of:
          0.037202466 = score(doc=4,freq=28.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.54974586 = fieldWeight in 4, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.04107306 = weight(_text_:informationswissenschaft in 4) [ClassicSimilarity], result of:
          0.04107306 = score(doc=4,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.29862255 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.0567126 = weight(_text_:einsatz in 4) [ClassicSimilarity], result of:
          0.0567126 = score(doc=4,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.3509004 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.0074902223 = weight(_text_:in in 4) [ClassicSimilarity], result of:
          0.0074902223 = score(doc=4,freq=8.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.18034597 = fieldWeight in 4, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.022583177 = weight(_text_:der in 4) [ClassicSimilarity], result of:
          0.022583177 = score(doc=4,freq=10.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.3311152 = fieldWeight in 4, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
      0.29411766 = coord(5/17)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
    Series
    Schriften zur Informationswissenschaft; Bd.3
  13. Informationslinguistische Texterschließung (1986) 0.05
    0.048328895 = product of:
      0.27386373 = sum of:
        0.033142593 = weight(_text_:und in 186) [ClassicSimilarity], result of:
          0.033142593 = score(doc=186,freq=32.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.48975256 = fieldWeight in 186, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=186)
        0.22388865 = weight(_text_:datenverarbeitung in 186) [ClassicSimilarity], result of:
          0.22388865 = score(doc=186,freq=22.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            1.1590914 = fieldWeight in 186, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=186)
        0.016832508 = weight(_text_:der in 186) [ClassicSimilarity], result of:
          0.016832508 = score(doc=186,freq=8.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.2467987 = fieldWeight in 186, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=186)
      0.1764706 = coord(3/17)
    
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ES 935 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Textverarbeitung
    RSWK
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Textanalyse / Linguistische Datenverarbeitung (SWB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ES 935 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Textverarbeitung
    Series
    Linguistische Datenverarbeitung ; Bd. 4
    Subject
    Linguistische Datenverarbeitung / Linguistik / Aufsatzsammlung (SWB)
    Textanalyse / Linguistische Datenverarbeitung (SWB)
    Linguistische Datenverarbeitung / Textanalyse / Aufsatzsammlung (BVB)
  14. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.05
    0.047422133 = product of:
      0.26872543 = sum of:
        0.04556353 = weight(_text_:und in 1399) [ClassicSimilarity], result of:
          0.04556353 = score(doc=1399,freq=42.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.6732984 = fieldWeight in 1399, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
        0.19842327 = weight(_text_:datenverarbeitung in 1399) [ClassicSimilarity], result of:
          0.19842327 = score(doc=1399,freq=12.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            1.0272548 = fieldWeight in 1399, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
        0.024738632 = weight(_text_:der in 1399) [ClassicSimilarity], result of:
          0.024738632 = score(doc=1399,freq=12.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.36271852 = fieldWeight in 1399, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1399)
      0.1764706 = coord(3/17)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    Series
    Sprache, Sprechen und Computer ; 3
  15. Hausser, R.: Grundlagen der Computerlinguistik : Mensch-Maschine-Kommunikation in natürlicher Sprache; mit 772 Übungen (2000) 0.05
    0.045202117 = product of:
      0.192109 = sum of:
        0.013257037 = weight(_text_:und in 5352) [ClassicSimilarity], result of:
          0.013257037 = score(doc=5352,freq=2.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.19590102 = fieldWeight in 5352, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
        0.1527463 = weight(_text_:datenverarbeitung in 5352) [ClassicSimilarity], result of:
          0.1527463 = score(doc=5352,freq=4.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.79078114 = fieldWeight in 5352, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
        0.00706185 = weight(_text_:in in 5352) [ClassicSimilarity], result of:
          0.00706185 = score(doc=5352,freq=4.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.17003182 = fieldWeight in 5352, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
        0.019043809 = weight(_text_:der in 5352) [ClassicSimilarity], result of:
          0.019043809 = score(doc=5352,freq=4.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.27922085 = fieldWeight in 5352, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5352)
      0.23529412 = coord(4/17)
    
    Abstract
    Die zentrale Aufgabe einer zukunftsorientierten Computerlinguistik ist die Entwicklung kognitiver Maschinen, mit denen Menschen in ihrer jeweiligen Sprache frei reden können. Für die natürlichsprachliche Kommunikation wird nicht nur Sprachverarbeitung, sondern auch nichtsprachliche Wahrnehmung und Handlung benötigt. Deshalb ist der Inhalt dieses Lehrbuchs als Sprachtheorie für die Konstruktion sprechender Roboter organisiert.
    RSWK
    Linguistische Datenverarbeitung / Lehrbuch
    Subject
    Linguistische Datenverarbeitung / Lehrbuch
  16. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.04
    0.0446606 = product of:
      0.12653837 = sum of:
        0.028122423 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.028122423 = score(doc=6069,freq=36.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.013406621 = product of:
          0.026813243 = sum of:
            0.026813243 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
              0.026813243 = score(doc=6069,freq=2.0), product of:
                0.13610567 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.030532904 = queryNorm
                0.19700313 = fieldWeight in 6069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6069)
          0.5 = coord(1/2)
        0.02738204 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.02738204 = score(doc=6069,freq=2.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.026813243 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
          0.026813243 = score(doc=6069,freq=2.0), product of:
            0.13610567 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.030532904 = queryNorm
            0.19700313 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.0074902223 = weight(_text_:in in 6069) [ClassicSimilarity], result of:
          0.0074902223 = score(doc=6069,freq=18.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.18034597 = fieldWeight in 6069, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.023323808 = weight(_text_:der in 6069) [ClassicSimilarity], result of:
          0.023323808 = score(doc=6069,freq=24.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34197432 = fieldWeight in 6069, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.3529412 = coord(6/17)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  17. Sparck Jones, K.; Kay, M.: Linguistik und Informationswissenschaft (1976) 0.04
    0.040974807 = product of:
      0.17414293 = sum of:
        0.029643636 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.029643636 = score(doc=3,freq=10.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.438048 = fieldWeight in 3, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.09485418 = weight(_text_:informationswissenschaft in 3) [ClassicSimilarity], result of:
          0.09485418 = score(doc=3,freq=6.0), product of:
            0.13754173 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.030532904 = queryNorm
            0.68963933 = fieldWeight in 3, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.00706185 = weight(_text_:in in 3) [ClassicSimilarity], result of:
          0.00706185 = score(doc=3,freq=4.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.17003182 = fieldWeight in 3, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
        0.04258325 = weight(_text_:der in 3) [ClassicSimilarity], result of:
          0.04258325 = score(doc=3,freq=20.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.6243568 = fieldWeight in 3, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.23529412 = coord(4/17)
    
    Abstract
    Diese Arbeit befaßt sich mit den sprachlichen Aspekten der Informationswissenschaft, insbesondere mit den sprachlichen Komponenten der Analyse, der beschreibung und dem Retrieval von Dokumenten. Dabei wird erforscht, welche linguistischen Verfahren und Theorien von der Informationswissenschaft genützt werden können. Unter anderem werden untersucht die Anwendung der Sprachtheorie auf die Struktur der Erkenntnis, die Verwertung der Phonologie, Morphologie, Syntax und Semantik in der Organisation, der Speicherung und in der Überbringung von Informationen
  18. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.04
    0.039110206 = product of:
      0.16621837 = sum of:
        0.125036 = weight(_text_:buch in 5227) [ClassicSimilarity], result of:
          0.125036 = score(doc=5227,freq=12.0), product of:
            0.14195877 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.030532904 = queryNorm
            0.8807909 = fieldWeight in 5227, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.016404746 = weight(_text_:und in 5227) [ClassicSimilarity], result of:
          0.016404746 = score(doc=5227,freq=4.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.24241515 = fieldWeight in 5227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.004369296 = weight(_text_:in in 5227) [ClassicSimilarity], result of:
          0.004369296 = score(doc=5227,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.10520181 = fieldWeight in 5227, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
        0.020408332 = weight(_text_:der in 5227) [ClassicSimilarity], result of:
          0.020408332 = score(doc=5227,freq=6.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.29922754 = fieldWeight in 5227, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5227)
      0.23529412 = coord(4/17)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
    Content
    Das Buch enthält eine Einleitung, in der die Vorgehensweise zur Erstellung des Buches geschildert wird.
    Source
    https://www.heise.de/newsticker/meldung/Erstes-wissenschaftliches-Buch-eines-Algorithmus-veroeffentlicht-4399858.html
  19. Rolland, M.T.: ¬Ein semantikorientierter Ansatz im Bereich der Sprachverarbeitung (1995) 0.04
    0.038273502 = product of:
      0.21688318 = sum of:
        0.019885555 = weight(_text_:und in 4445) [ClassicSimilarity], result of:
          0.019885555 = score(doc=4445,freq=2.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.29385152 = fieldWeight in 4445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4445)
        0.1620119 = weight(_text_:datenverarbeitung in 4445) [ClassicSimilarity], result of:
          0.1620119 = score(doc=4445,freq=2.0), product of:
            0.19315876 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.030532904 = queryNorm
            0.83875 = fieldWeight in 4445, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.09375 = fieldNorm(doc=4445)
        0.034985714 = weight(_text_:der in 4445) [ClassicSimilarity], result of:
          0.034985714 = score(doc=4445,freq=6.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.5129615 = fieldWeight in 4445, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4445)
      0.1764706 = coord(3/17)
    
    Series
    Sprache und Computer; 15
    Source
    Angewandte Computerlinguistik: Vorträge im Rahmen der Jahrestagung 1995 der Gesellschaft für Linguistische Datenverarbeitung (GLDV) e.V., Regensburg, 30.-31.3.1995
  20. Seelbach, H.E.: Von der Stichwortliste zum halbautomatisch kontrollierten Wortschatz (1977) 0.04
    0.036063515 = product of:
      0.15326993 = sum of:
        0.028702328 = weight(_text_:und in 8950) [ClassicSimilarity], result of:
          0.028702328 = score(doc=8950,freq=6.0), product of:
            0.06767212 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030532904 = queryNorm
            0.42413816 = fieldWeight in 8950, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8950)
        0.09452099 = weight(_text_:einsatz in 8950) [ClassicSimilarity], result of:
          0.09452099 = score(doc=8950,freq=2.0), product of:
            0.16162021 = queryWeight, product of:
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.030532904 = queryNorm
            0.584834 = fieldWeight in 8950, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.293313 = idf(docFreq=603, maxDocs=44218)
              0.078125 = fieldNorm(doc=8950)
        0.0062418524 = weight(_text_:in in 8950) [ClassicSimilarity], result of:
          0.0062418524 = score(doc=8950,freq=2.0), product of:
            0.04153252 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.030532904 = queryNorm
            0.15028831 = fieldWeight in 8950, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=8950)
        0.02380476 = weight(_text_:der in 8950) [ClassicSimilarity], result of:
          0.02380476 = score(doc=8950,freq=4.0), product of:
            0.06820339 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.030532904 = queryNorm
            0.34902605 = fieldWeight in 8950, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=8950)
      0.23529412 = coord(4/17)
    
    Abstract
    Bei Volltextsuch-Systemen kann jede Zeichenfolge aus dem Text als potentieller Suchbegriff übernommen werden. Dies führt bei großen Dokumentbeständen trotz Stoppwörtern zu umfangreichen und nicht mehr überschaubaren Wortlisten. Es wird ein Verfahren, bestehend aus Programmen und rationallem, intellektuellem Einsatz der Dokumentare vorgestellt, das solche Stichwortlisten in einen kontrollierten Wortschatz mit Vorzugsbenennungen, zusammengesetzten Ausdrücken und Thesaurusrelationen halbautomatisch überführt

Years

Languages

Types

  • a 529
  • el 82
  • m 82
  • s 33
  • x 15
  • p 7
  • b 2
  • d 2
  • n 1
  • r 1
  • More… Less…

Subjects

Classifications