Search (64 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.24
    0.23950903 = product of:
      0.5987726 = sum of:
        0.045170225 = product of:
          0.13551067 = sum of:
            0.13551067 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.13551067 = score(doc=562,freq=2.0), product of:
                0.24111445 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028439978 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.13551067 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13551067 = score(doc=562,freq=2.0), product of:
            0.24111445 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028439978 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.13551067 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13551067 = score(doc=562,freq=2.0), product of:
            0.24111445 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028439978 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.13551067 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13551067 = score(doc=562,freq=2.0), product of:
            0.24111445 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028439978 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.13551067 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.13551067 = score(doc=562,freq=2.0), product of:
            0.24111445 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028439978 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.011559673 = product of:
          0.023119345 = sum of:
            0.023119345 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.023119345 = score(doc=562,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.4 = coord(6/15)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.05
    0.05120128 = product of:
      0.19200478 = sum of:
        0.027783707 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.027783707 = score(doc=5882,freq=18.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.05410448 = weight(_text_:informationswissenschaft in 5882) [ClassicSimilarity], result of:
          0.05410448 = score(doc=5882,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.42231607 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.05410448 = weight(_text_:informationswissenschaft in 5882) [ClassicSimilarity], result of:
          0.05410448 = score(doc=5882,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.42231607 = fieldWeight in 5882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.056012128 = product of:
          0.112024255 = sum of:
            0.112024255 = weight(_text_:informationsvermittlung in 5882) [ClassicSimilarity], result of:
              0.112024255 = score(doc=5882,freq=4.0), product of:
                0.18434656 = queryWeight, product of:
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.028439978 = queryNorm
                0.60768294 = fieldWeight in 5882, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5882)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Rahmstorf, G.: Rückkehr von Ordnung in die Informationstechnik? (2000) 0.04
    0.036749326 = product of:
      0.18374662 = sum of:
        0.030716043 = weight(_text_:und in 5504) [ClassicSimilarity], result of:
          0.030716043 = score(doc=5504,freq=22.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.48729765 = fieldWeight in 5504, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.07651529 = weight(_text_:informationswissenschaft in 5504) [ClassicSimilarity], result of:
          0.07651529 = score(doc=5504,freq=8.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.5972451 = fieldWeight in 5504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
        0.07651529 = weight(_text_:informationswissenschaft in 5504) [ClassicSimilarity], result of:
          0.07651529 = score(doc=5504,freq=8.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.5972451 = fieldWeight in 5504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5504)
      0.2 = coord(3/15)
    
    Abstract
    Im Zuge der aktuellen Informationstechnik, der weltweiten Kommunikation und des elektronischen Publizierens scheinen die herkömmlichen Instrumente der Ordnungsstiftung - bibliothekarische Klassifikationssysteme und Thesauren - an den Rand gedrängt zu werden oder sogar ganz zu verschwinden. Andererseits sind die Endbenutzer oft unzufrieden mit dem Ergebnis des Recherchierens im Bestand des unabsehbar wachsenden Informationsangebotes. Ist eine präzise und vollständige Recherche bei den gegebenen technischen und Ökonomischen Verhältnissen überhaupt noch realisierbar'?
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  4. Rahmstorf, G.: Wortmodell und Begriffssprache als Basis des semantischen Retrievals (2000) 0.03
    0.0300808 = product of:
      0.150404 = sum of:
        0.024160212 = weight(_text_:und in 5484) [ClassicSimilarity], result of:
          0.024160212 = score(doc=5484,freq=10.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.38329202 = fieldWeight in 5484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5484)
        0.0631219 = weight(_text_:informationswissenschaft in 5484) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5484,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5484)
        0.0631219 = weight(_text_:informationswissenschaft in 5484) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5484,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5484)
      0.2 = coord(3/15)
    
    Abstract
    Der heutigen Retrievaltechnik wird das Projekt eines semantisch basierten Suchsystems gegenübergestellt. Es soll genauer und vollständiger arbeiten sowie systematische Zusammenhänge zwischen Themen unterstützen. Bei diesem Ansatz wird ein umfassendes Wörterbuch mit einer einfachen begrifflichen Darstellung der Wortbedeutungen benötigt. Das Wortmodell bildet Wort, Wortmerkmale, Lemma, Wortbedeutungen (Lesarten), Lesartenmerkmale und Begriffe ab. Begriffe sind formale Ausdrücke einer Begriffssprache. Entsprechend dieser Differenzierung wird Lenunaindexierung, Lesartenindexierung und Begriffsindexierung unterschieden. Begriffe werden mit dem Programm Concepto grafisch konstruiert und erfasst
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  5. Hammwöhner, R.: TransRouter revisited : Decision support in the routing of translation projects (2000) 0.03
    0.027946016 = product of:
      0.13973008 = sum of:
        0.0631219 = weight(_text_:informationswissenschaft in 5483) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5483,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5483, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5483)
        0.0631219 = weight(_text_:informationswissenschaft in 5483) [ClassicSimilarity], result of:
          0.0631219 = score(doc=5483,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.4927021 = fieldWeight in 5483, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5483)
        0.013486285 = product of:
          0.02697257 = sum of:
            0.02697257 = weight(_text_:22 in 5483) [ClassicSimilarity], result of:
              0.02697257 = score(doc=5483,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.2708308 = fieldWeight in 5483, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5483)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Date
    10.12.2000 18:22:35
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  6. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.03
    0.025926411 = product of:
      0.12963206 = sum of:
        0.02761167 = weight(_text_:und in 5979) [ClassicSimilarity], result of:
          0.02761167 = score(doc=5979,freq=10.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.438048 = fieldWeight in 5979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.051010195 = weight(_text_:informationswissenschaft in 5979) [ClassicSimilarity], result of:
          0.051010195 = score(doc=5979,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.051010195 = weight(_text_:informationswissenschaft in 5979) [ClassicSimilarity], result of:
          0.051010195 = score(doc=5979,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
      0.2 = coord(3/15)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Nhongkai, S.N.; Bentz, H.-J.: Bilinguale Suche mittels Konzeptnetzen (2006) 0.03
    0.025343403 = product of:
      0.12671702 = sum of:
        0.024696628 = weight(_text_:und in 3914) [ClassicSimilarity], result of:
          0.024696628 = score(doc=3914,freq=8.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.39180204 = fieldWeight in 3914, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.051010195 = weight(_text_:informationswissenschaft in 3914) [ClassicSimilarity], result of:
          0.051010195 = score(doc=3914,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.051010195 = weight(_text_:informationswissenschaft in 3914) [ClassicSimilarity], result of:
          0.051010195 = score(doc=3914,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.3981634 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
      0.2 = coord(3/15)
    
    Abstract
    Eine neue Methode der Volltextsuche in bilingualen Textsammlungen wird vorgestellt und anhand eines parallelen Textkorpus (Englisch-Deutsch) geprüft. Die Brücke liefern passende Wortcluster, die aus einer Kookkurrenzanalyse stammen, geliefert von der neuartigen Suchmaschine SENTRAX (Essente Extractor Engine). Diese Cluster repräsentieren Konzepte, die sich in beiden Textsammlungen finden. Die Hypothese ist, dass das Finden mittels solcher Strukturvergleiche erfolgreich möglich ist.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.02
    0.023918018 = product of:
      0.08969256 = sum of:
        0.026194729 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.026194729 = score(doc=6069,freq=36.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.012487644 = product of:
          0.024975289 = sum of:
            0.024975289 = weight(_text_:bibliothekswesen in 6069) [ClassicSimilarity], result of:
              0.024975289 = score(doc=6069,freq=2.0), product of:
                0.1267761 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028439978 = queryNorm
                0.19700313 = fieldWeight in 6069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6069)
          0.5 = coord(1/2)
        0.025505098 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.025505098 = score(doc=6069,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.025505098 = weight(_text_:informationswissenschaft in 6069) [ClassicSimilarity], result of:
          0.025505098 = score(doc=6069,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.1990817 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.26666668 = coord(4/15)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  9. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.02
    0.022685612 = product of:
      0.113428056 = sum of:
        0.024160212 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.024160212 = score(doc=5978,freq=10.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.04463392 = weight(_text_:informationswissenschaft in 5978) [ClassicSimilarity], result of:
          0.04463392 = score(doc=5978,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.348393 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.04463392 = weight(_text_:informationswissenschaft in 5978) [ClassicSimilarity], result of:
          0.04463392 = score(doc=5978,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.348393 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
      0.2 = coord(3/15)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  10. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.02
    0.022400616 = product of:
      0.11200308 = sum of:
        0.02182894 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.02182894 = score(doc=5863,freq=16.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.04508707 = weight(_text_:informationswissenschaft in 5863) [ClassicSimilarity], result of:
          0.04508707 = score(doc=5863,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.35193008 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.04508707 = weight(_text_:informationswissenschaft in 5863) [ClassicSimilarity], result of:
          0.04508707 = score(doc=5863,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.35193008 = fieldWeight in 5863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.2 = coord(3/15)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  11. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.02
    0.021160377 = product of:
      0.10580188 = sum of:
        0.029286597 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.029286597 = score(doc=5981,freq=20.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.038257644 = weight(_text_:informationswissenschaft in 5981) [ClassicSimilarity], result of:
          0.038257644 = score(doc=5981,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.038257644 = weight(_text_:informationswissenschaft in 5981) [ClassicSimilarity], result of:
          0.038257644 = score(doc=5981,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.2 = coord(3/15)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.02
    0.01984012 = product of:
      0.09920059 = sum of:
        0.0226853 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.0226853 = score(doc=5964,freq=12.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.038257644 = weight(_text_:informationswissenschaft in 5964) [ClassicSimilarity], result of:
          0.038257644 = score(doc=5964,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.038257644 = weight(_text_:informationswissenschaft in 5964) [ClassicSimilarity], result of:
          0.038257644 = score(doc=5964,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.2 = coord(3/15)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Series
    Schriften zur Informationswissenschaft; Bd.45
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Zimmermann, H.H.: Maschinelle und Computergestützte Übersetzung (2004) 0.02
    0.019007552 = product of:
      0.09503776 = sum of:
        0.01852247 = weight(_text_:und in 2943) [ClassicSimilarity], result of:
          0.01852247 = score(doc=2943,freq=8.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.29385152 = fieldWeight in 2943, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.038257644 = weight(_text_:informationswissenschaft in 2943) [ClassicSimilarity], result of:
          0.038257644 = score(doc=2943,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
        0.038257644 = weight(_text_:informationswissenschaft in 2943) [ClassicSimilarity], result of:
          0.038257644 = score(doc=2943,freq=2.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.29862255 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
      0.2 = coord(3/15)
    
    Abstract
    Unter Maschineller Übersetzung (Machine Translation, MT) wird im Folgenden die vollautomatische Übersetzung eines Textes in natürlicher Sprache in eine andere natürliche Sprache verstanden. Unter Human-Übersetzung (Human Translation, HT) wird die intellektuelle Übersetzung eines Textes mit oder ohne maschinelle lexikalische Hilfen mit oder ohne Textverarbeitung verstanden. Unter computergestützter bzw computerunterstützter Übersetzung (CAT) wird einerseits eine intellektuelle Übersetzung verstanden, die auf einer maschinellen Vorübersetzung/Rohübersetzung (MT) aufbaut, die nachfolgend intellektuell nachbereitet wird (Postedition); andererseits wird darunter eine intellektuelle Übersetzung verstanden, bei der vor oder während des intellektuellen Übersetzungsprozesses ein Translation Memory und/ oder eine Terminologie-Bank verwendet werden. Unter ICAT wird eine spezielle Variante von CAT verstanden, bei der ein Nutzer ohne (hinreichende) Kenntnis der Zielsprache bei einer Übersetzung aus seiner Muttersprache so unterstützt wird, dass das zielsprachige Äquivalent relativ fehlerfrei ist.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  14. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.01
    0.014899461 = product of:
      0.111745946 = sum of:
        0.026466185 = weight(_text_:und in 4184) [ClassicSimilarity], result of:
          0.026466185 = score(doc=4184,freq=12.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.41987535 = fieldWeight in 4184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4184)
        0.08527976 = sum of:
          0.058307197 = weight(_text_:nutzung in 4184) [ClassicSimilarity], result of:
            0.058307197 = score(doc=4184,freq=2.0), product of:
              0.14642802 = queryWeight, product of:
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.028439978 = queryNorm
              0.398197 = fieldWeight in 4184, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.1486683 = idf(docFreq=697, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4184)
          0.02697257 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
            0.02697257 = score(doc=4184,freq=2.0), product of:
              0.099591956 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028439978 = queryNorm
              0.2708308 = fieldWeight in 4184, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4184)
      0.13333334 = coord(2/15)
    
    Abstract
    Das Medium Internet ist im Wandel, und mit ihm ändern sich seine Publikations- und Rezeptionsbedingungen. Welche Chancen bieten die momentan parallel diskutierten Zukunftsentwürfe von Social Web und Semantic Web? Zur Beantwortung dieser Frage beschäftigt sich der Beitrag mit den Grundlagen beider Modelle unter den Aspekten Anwendungsbezug und Technologie, beleuchtet darüber hinaus jedoch auch deren Unzulänglichkeiten sowie den Mehrwert einer mediengerechten Kombination. Am Beispiel des grammatischen Online-Informationssystems grammis wird eine Strategie zur integrativen Nutzung der jeweiligen Stärken skizziert.
    Date
    22. 1.2011 10:38:28
    Source
    Kommunikation, Partizipation und Wirkungen im Social Web, Band 1. Hrsg.: A. Zerfaß u.a
  15. Goller, C.; Löning, J.; Will, T.; Wolff, W.: Automatic document classification : a thourough evaluation of various methods (2000) 0.01
    0.014427862 = product of:
      0.10820896 = sum of:
        0.05410448 = weight(_text_:informationswissenschaft in 5480) [ClassicSimilarity], result of:
          0.05410448 = score(doc=5480,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.42231607 = fieldWeight in 5480, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5480)
        0.05410448 = weight(_text_:informationswissenschaft in 5480) [ClassicSimilarity], result of:
          0.05410448 = score(doc=5480,freq=4.0), product of:
            0.12811372 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.028439978 = queryNorm
            0.42231607 = fieldWeight in 5480, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5480)
      0.13333334 = coord(2/15)
    
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  16. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.01
    0.008742329 = product of:
      0.06556746 = sum of:
        0.030247068 = weight(_text_:und in 5953) [ClassicSimilarity], result of:
          0.030247068 = score(doc=5953,freq=12.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.47985753 = fieldWeight in 5953, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
        0.035320394 = product of:
          0.07064079 = sum of:
            0.07064079 = weight(_text_:bibliothekswesen in 5953) [ClassicSimilarity], result of:
              0.07064079 = score(doc=5953,freq=4.0), product of:
                0.1267761 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.028439978 = queryNorm
                0.557209 = fieldWeight in 5953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5953)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der Artikel geht der Frage nach, ob und inwieweit Informations- und Recherchesysteme von der Technologie natürlich sprachlicher Frage-Antwortsysteme, so genannter Question Answering-Systeme, profitieren können. Nach einer allgemeinen Einführung in die Zielsetzung und die historische Entwicklung dieses Sonderzweigs der maschinellen Sprachverarbeitung werden dessen Abgrenzung von herkömmlichen Retrieval- und Extraktionsverfahren erläutert und die besondere Struktur von Question Answering-Systemen sowie einzelne Evaluierungsinitiativen aufgezeichnet. Zudem werden konkrete Anwendungsfelder im Bibliothekswesen vorgestellt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.3-11
  17. Monnerjahn, P.: Vorsprung ohne Technik : Übersetzen: Computer und Qualität (2000) 0.01
    0.0055522425 = product of:
      0.041641816 = sum of:
        0.01852247 = weight(_text_:und in 5429) [ClassicSimilarity], result of:
          0.01852247 = score(doc=5429,freq=2.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.29385152 = fieldWeight in 5429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5429)
        0.023119345 = product of:
          0.04623869 = sum of:
            0.04623869 = weight(_text_:22 in 5429) [ClassicSimilarity], result of:
              0.04623869 = score(doc=5429,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.46428138 = fieldWeight in 5429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5429)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Source
    c't. 2000, H.22, S.230-231
  18. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.00
    0.004834586 = product of:
      0.03625939 = sum of:
        0.015435392 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.015435392 = score(doc=566,freq=8.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.020823998 = product of:
          0.041647997 = sum of:
            0.041647997 = weight(_text_:nutzung in 566) [ClassicSimilarity], result of:
              0.041647997 = score(doc=566,freq=2.0), product of:
                0.14642802 = queryWeight, product of:
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.028439978 = queryNorm
                0.28442642 = fieldWeight in 566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1486683 = idf(docFreq=697, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  19. Sienel, J.; Weiss, M.; Laube, M.: Sprachtechnologien für die Informationsgesellschaft des 21. Jahrhunderts (2000) 0.00
    0.004194934 = product of:
      0.031462003 = sum of:
        0.02182894 = weight(_text_:und in 5557) [ClassicSimilarity], result of:
          0.02182894 = score(doc=5557,freq=16.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.34630734 = fieldWeight in 5557, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5557)
        0.0096330615 = product of:
          0.019266123 = sum of:
            0.019266123 = weight(_text_:22 in 5557) [ClassicSimilarity], result of:
              0.019266123 = score(doc=5557,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.19345059 = fieldWeight in 5557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5557)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    In den vergangenen Jahren hat sich die Entwicklung, Sprache als Schnittstelle zwischen Mensch und Maschine einzusetzen, zunehmend an Bedeutung gewonnen. Die steigende Verarbeitungsgeschwindigkeit der Prozessoren ermöglicht es heute, selbst sehr komplexe Aufgaben wie Diktiersysteme auf handelsüblichen PCs verfügbar zu machen. Ebenso haben sich Verfahren weiterentwickelt und die Erkennungsleistung konnte gesteigert werden. Insbesondere im mobilen Umfeld wird sich Sprache als notwendig erweisen, um den Widerspruch, immer komplexere Funktionalität in immer kleineren und leichteren Terminals unterzubringen, aufzulösen. In diesem Umfeld können auch andere Modalitäten, wie Handschrift oder Gestik, integriert werden. Eine der Hauptanwendungen in mobiler Umgebung wird der Zugriff auf das Internet werden: um schnell und umfassend zu den benötigten Information zu gelangen, können intelligente Agenten eine mögliche Hilfe darstellen. Sie sind in Lage, die Informationen bezüglich ihrer Relevanz für den Nutzer zu beurteilen und fassen die Inhalte zusammen, die sich auf den kleinen Displays, oder akustisch wiedergeben lassen. Ist das gefundene Dokument in einer dein Benutzer fremden Sprache verfaßt, kann es automatisch übersetzt werden. Natürlich werden die benötigten Technologien nicht alle in einem Endgerät untergebracht werden können, deshalb wird bereits heute in Standardisierungsgremien untersucht, wie verteilte Architekturen helfen können, den Zugriff auf Informationen immer, überall und jedem verfügbaren Endgerät zugänglich zu machen. Das vom BMWi geförderte Projekt "Mobiler Multimedia-Arbeitsplatz der Zukunft" will diesen Ansatz verfolgen. Dabei werden auch die sozialen und arbeitsrechtlichen Aspekte untersucht
    Date
    26.12.2000 13:22:17
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  20. Schürmann, H.: Software scannt Radio- und Fernsehsendungen : Recherche in Nachrichtenarchiven erleichtert (2001) 0.00
    0.00403888 = product of:
      0.0302916 = sum of:
        0.023548458 = weight(_text_:und in 5759) [ClassicSimilarity], result of:
          0.023548458 = score(doc=5759,freq=38.0), product of:
            0.06303343 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028439978 = queryNorm
            0.3735868 = fieldWeight in 5759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5759)
        0.0067431424 = product of:
          0.013486285 = sum of:
            0.013486285 = weight(_text_:22 in 5759) [ClassicSimilarity], result of:
              0.013486285 = score(doc=5759,freq=2.0), product of:
                0.099591956 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028439978 = queryNorm
                0.1354154 = fieldWeight in 5759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5759)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Um Firmen und Agenturen die Beobachtungen von Medien zu erleichtern, entwickeln Forscher an der Duisburger Hochschule zurzeit ein System zur automatischen Themenerkennung in Rundfunk und Fernsehen. Das so genannte Alert-System soll dem Nutzer helfen, die für ihn relevanten Sprachinformationen aus Nachrichtensendungen herauszufiltem und weiterzuverarbeiten. Durch die automatische Analyse durch den Computer können mehrere Programme rund um die Uhr beobachtet werden. Noch erfolgt die Informationsgewinnung aus TV- und Radiosendungen auf klassischem Wege: Ein Mensch sieht, hört, liest und wertet aus. Das ist enorm zeitaufwendig und für eine Firma, die beispielsweise die Konkurrenz beobachten oder ihre Medienpräsenz dokumentieren lassen möchte, auch sehr teuer. Diese Arbeit ließe sich mit einem Spracherkenner automatisieren, sagten sich die Duisburger Forscher. Sie arbeiten nun zusammen mit Partnern aus Deutschland, Frankreich und Portugal in einem europaweiten Projekt an der Entwicklung einer entsprechenden Technologie (http://alert.uni-duisburg.de). An dem Projekt sind auch zwei Medienbeobachtungsuntemehmen beteiligt, die Oberserver Argus Media GmbH aus Baden-Baden und das französische Unternehmen Secodip. Unsere Arbeit würde schon dadurch erleichtert, wenn Informationen, die über unsere Kunden in den Medien erscheinen, vorselektiert würden", beschreibt Simone Holderbach, Leiterin der Produktentwicklung bei Oberserver, ihr Interesse an der Technik. Und wie funktioniert Alert? Das Spracherkennungssystem wird darauf getrimmt, Nachrichtensendungen in Radio und Fernsehen zu überwachen: Alles, was gesagt wird - sei es vom Nachrichtensprecher, Reporter oder Interviewten -, wird durch die automatische Spracherkennung in Text umgewandelt. Dabei werden Themen und Schlüsselwörter erkannt und gespeichert. Diese werden mit den Suchbegriffen des Nutzers verglichen. Gefundene Übereinstimmungen werden angezeigt und dem Benutzer automatisch mitgeteilt. Konventionelle Spracherkennungstechnik sei für die Medienbeobachtung nicht einsetzbar, da diese für einen anderen Zweck entwickelt worden sei, betont Prof. Gerhard Rigoll, Leiter des Fachgebiets Technische Informatik an der Duisburger Hochschule. Für die Umwandlung von Sprache in Text wurde die Alert-Software gründlich trainiert. Aus Zeitungstexten, Audio- und Video-Material wurden bislang rund 3 50 Millionen Wörter verarbeitet. Das System arbeitet in drei Sprachen. Doch so ganz fehlerfrei sei der automatisch gewonnene Text nicht, räumt Rigoll ein. Zurzeit liegt die Erkennungsrate bei 40 bis 70 Prozent. Und das wird sich in absehbarer Zeit auch nicht ändern." Musiküberlagerungen oder starke Hintergrundgeräusche bei Reportagen führen zu Ungenauigkeiten bei der Textumwandlung. Deshalb haben die, Duisburger Wissenschaftler Methoden entwickelt, die über die herkömmliche Suche nach Schlüsselwörtern hinausgehen und eine inhaltsorientierte Zuordnung ermöglichen. Dadurch erhält der Nutzer dann auch solche Nachrichten, die zwar zum Thema passen, in denen das Stichwort aber gar nicht auftaucht", bringt Rigoll den Vorteil der Technik auf den Punkt. Wird beispielsweise "Ölpreis" als Suchbegriff eingegeben, werden auch solche Nachrichten angezeigt, in denen Olkonzerne und Energieagenturen eine Rolle spielen. Rigoll: Das Alert-System liest sozusagen zwischen den Zeilen!' Das Forschungsprojekt wurde vor einem Jahr gestartet und läuft noch bis Mitte 2002. Wer sich über den Stand der Technik informieren möchte, kann dies in dieser Woche auf der Industriemesse in Hannover. Das Alert-System wird auf dem Gemeinschaftsstand "Forschungsland NRW" in Halle 18, Stand M12, präsentiert
    Source
    Handelsblatt. Nr.79 vom 24.4.2001, S.22

Languages

  • d 50
  • e 13
  • ru 1
  • More… Less…