Search (318 results, page 1 of 16)

  • × theme_ss:"Computerlinguistik"
  1. Schwarz, C.: Probleme der syntaktischen Indexierung (1986) 0.08
    0.07503106 = product of:
      0.15006211 = sum of:
        0.13068582 = weight(_text_:c in 8180) [ClassicSimilarity], result of:
          0.13068582 = score(doc=8180,freq=4.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.8623513 = fieldWeight in 8180, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.125 = fieldNorm(doc=8180)
        0.019376293 = product of:
          0.038752586 = sum of:
            0.038752586 = weight(_text_:der in 8180) [ClassicSimilarity], result of:
              0.038752586 = score(doc=8180,freq=2.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.3948779 = fieldWeight in 8180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.125 = fieldNorm(doc=8180)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Informationslinguistische Texterschließung. Hrsg.: C. Schwarz u. G. Thurmair
  2. Schwarz, C.: THESYS: Thesaurus Syntax System : a fully automatic thesaurus building aid (1988) 0.05
    0.049525097 = product of:
      0.099050194 = sum of:
        0.04042886 = weight(_text_:c in 1361) [ClassicSimilarity], result of:
          0.04042886 = score(doc=1361,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.2667763 = fieldWeight in 1361, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1361)
        0.05862134 = sum of:
          0.016954256 = weight(_text_:der in 1361) [ClassicSimilarity], result of:
            0.016954256 = score(doc=1361,freq=2.0), product of:
              0.098138146 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.043933928 = queryNorm
              0.17275909 = fieldWeight in 1361, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1361)
          0.04166708 = weight(_text_:22 in 1361) [ClassicSimilarity], result of:
            0.04166708 = score(doc=1361,freq=2.0), product of:
              0.15384912 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043933928 = queryNorm
              0.2708308 = fieldWeight in 1361, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1361)
      0.5 = coord(2/4)
    
    Date
    6. 1.1999 10:22:07
    Source
    Wissensorganisation im Wandel: Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987. Hrsg.: H.-J. Hermes u. J. Hölzl
  3. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.04
    0.038999457 = product of:
      0.077998914 = sum of:
        0.02021443 = weight(_text_:c in 4044) [ClassicSimilarity], result of:
          0.02021443 = score(doc=4044,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.13338815 = fieldWeight in 4044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4044)
        0.057784483 = sum of:
          0.036950942 = weight(_text_:der in 4044) [ClassicSimilarity], result of:
            0.036950942 = score(doc=4044,freq=38.0), product of:
              0.098138146 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.043933928 = queryNorm
              0.37651968 = fieldWeight in 4044, product of:
                6.164414 = tf(freq=38.0), with freq of:
                  38.0 = termFreq=38.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
          0.02083354 = weight(_text_:22 in 4044) [ClassicSimilarity], result of:
            0.02083354 = score(doc=4044,freq=2.0), product of:
              0.15384912 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043933928 = queryNorm
              0.1354154 = fieldWeight in 4044, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4044)
      0.5 = coord(2/4)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
    Date
    3. 5.1997 8:44:22
  4. ¬The semantics of relationships : an interdisciplinary perspective (2002) 0.04
    0.035313863 = product of:
      0.07062773 = sum of:
        0.06457263 = weight(_text_:c in 1430) [ClassicSimilarity], result of:
          0.06457263 = score(doc=1430,freq=10.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.42609286 = fieldWeight in 1430, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1430)
        0.0060550915 = product of:
          0.012110183 = sum of:
            0.012110183 = weight(_text_:der in 1430) [ClassicSimilarity], result of:
              0.012110183 = score(doc=1430,freq=2.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.12339935 = fieldWeight in 1430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1430)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: Pt.1: Types of relationships: CRUDE, D.A.: Hyponymy and its varieties; FELLBAUM, C.: On the semantics of troponymy; PRIBBENOW, S.: Meronymic relationships: from classical mereology to complex part-whole relations; KHOO, C. u.a.: The many facets of cause-effect relation - Pt.2: Relationships in knowledge representation and reasoning: GREEN, R.: Internally-structured conceptual models in cognitive semantics; HOVY, E.: Comparing sets of semantic relations in ontologies; GUARINO, N., C. WELTY: Identity and subsumption; JOUIS; C.: Logic of relationships - Pt.3: Applications of relationships: EVENS, M.: Thesaural relations in information retrieval; KHOO, C., S.H. MYAENG: Identifying semantic relations in text for information retrieval and information extraction; McCRAY, A.T., O. BODENREICHER: A conceptual framework for the biiomedical domain; HETZLER, B.: Visual analysis and exploration of relationships
    Footnote
    Mit ausführlicher Einleitung der Herausgeber zu den Themen: Types of relationships - Relationships in knowledge representation and reasoning - Applications of relationships
  5. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.04
    0.03509568 = product of:
      0.07019136 = sum of:
        0.05233404 = product of:
          0.20933616 = sum of:
            0.20933616 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.20933616 = score(doc=562,freq=2.0), product of:
                0.37247232 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043933928 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.25 = coord(1/4)
        0.01785732 = product of:
          0.03571464 = sum of:
            0.03571464 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.03571464 = score(doc=562,freq=2.0), product of:
                0.15384912 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043933928 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  6. Deventer, J.P. van; Kruger, C.J.; Johnson, R.D.: Delineating knowledge management through lexical analysis : a retrospective (2015) 0.03
    0.0316252 = product of:
      0.0632504 = sum of:
        0.052833628 = weight(_text_:van in 3807) [ClassicSimilarity], result of:
          0.052833628 = score(doc=3807,freq=2.0), product of:
            0.24500148 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.043933928 = queryNorm
            0.21564616 = fieldWeight in 3807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3807)
        0.01041677 = product of:
          0.02083354 = sum of:
            0.02083354 = weight(_text_:22 in 3807) [ClassicSimilarity], result of:
              0.02083354 = score(doc=3807,freq=2.0), product of:
                0.15384912 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043933928 = queryNorm
                0.1354154 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3807)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    20. 1.2015 18:30:22
  7. Sembok, T.M.T.; Rijsbergen, C.J. van: SILOL: a simple logical-linguistic document retrieval system (1990) 0.03
    0.030190647 = product of:
      0.12076259 = sum of:
        0.12076259 = weight(_text_:van in 6684) [ClassicSimilarity], result of:
          0.12076259 = score(doc=6684,freq=2.0), product of:
            0.24500148 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.043933928 = queryNorm
            0.49290553 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=6684)
      0.25 = coord(1/4)
    
  8. Ruge, G.; Schwarz, C.: ¬Die Leistungsfähigkeit von linguistischen Verfahren in der Massentextverarbeitung (1989) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 6969) [ClassicSimilarity], result of:
          0.04620441 = score(doc=6969,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 6969, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=6969)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 6969) [ClassicSimilarity], result of:
              0.027402217 = score(doc=6969,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 6969, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6969)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
  9. Ladewig, C.: 'Information Retrieval ohne Linguistik?' : Erwiderung zu dem Artikel von Gerda Ruge und Sebastian Goeser, Nfd 49(1998) H.6, S.361-369 (1998) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 2513) [ClassicSimilarity], result of:
          0.04620441 = score(doc=2513,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 2513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=2513)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 2513) [ClassicSimilarity], result of:
              0.027402217 = score(doc=2513,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 2513, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2513)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Es wird eine Gegendarstellung zu Untersuchungen der Effektivität von Information Retrieval Systemen anhand der Rechercheparameter Precision und Recall gegeben. Grundlage dieser Untersuchungen sind Relevanzbestimmungen oder -einschätzungen, deren Widersprüchlichkeit geklärt wird und es werden Lösungen angeboten
  10. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 5979) [ClassicSimilarity], result of:
          0.04620441 = score(doc=5979,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 5979, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 5979) [ClassicSimilarity], result of:
              0.027402217 = score(doc=5979,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 5979, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5979)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  11. Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 6023) [ClassicSimilarity], result of:
          0.04620441 = score(doc=6023,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 6023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=6023)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 6023) [ClassicSimilarity], result of:
              0.027402217 = score(doc=6023,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 6023, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6023)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
  12. Nhongkai, S.N.; Bentz, H.-J.: Bilinguale Suche mittels Konzeptnetzen (2006) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 3914) [ClassicSimilarity], result of:
          0.04620441 = score(doc=3914,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 3914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=3914)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 3914) [ClassicSimilarity], result of:
              0.027402217 = score(doc=3914,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 3914, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3914)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Eine neue Methode der Volltextsuche in bilingualen Textsammlungen wird vorgestellt und anhand eines parallelen Textkorpus (Englisch-Deutsch) geprüft. Die Brücke liefern passende Wortcluster, die aus einer Kookkurrenzanalyse stammen, geliefert von der neuartigen Suchmaschine SENTRAX (Essente Extractor Engine). Diese Cluster repräsentieren Konzepte, die sich in beiden Textsammlungen finden. Die Hypothese ist, dass das Finden mittels solcher Strukturvergleiche erfolgreich möglich ist.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Becks, D.; Schulz, J.M.: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente (2010) 0.03
    0.029952759 = product of:
      0.059905518 = sum of:
        0.04620441 = weight(_text_:c in 4661) [ClassicSimilarity], result of:
          0.04620441 = score(doc=4661,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.3048872 = fieldWeight in 4661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0625 = fieldNorm(doc=4661)
        0.013701108 = product of:
          0.027402217 = sum of:
            0.027402217 = weight(_text_:der in 4661) [ClassicSimilarity], result of:
              0.027402217 = score(doc=4661,freq=4.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.27922085 = fieldWeight in 4661, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4661)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Der vorliegende Artikel beschreibt einen neuartigen domänenübergreifenden Ansatz zur Extraktion von Phrasen, der sich mit geringem Aufwand und ohne komplexe Lexika umsetzen und auf andere Domänen übertragen lässt. Dies wird anhand von Kundenrezensionen und Patentschriften getestet.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  14. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.03
    0.029376134 = product of:
      0.05875227 = sum of:
        0.03465331 = weight(_text_:c in 5964) [ClassicSimilarity], result of:
          0.03465331 = score(doc=5964,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.22866541 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.02409896 = product of:
          0.04819792 = sum of:
            0.04819792 = weight(_text_:der in 5964) [ClassicSimilarity], result of:
              0.04819792 = score(doc=5964,freq=22.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.4911232 = fieldWeight in 5964, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5964)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  15. ¬Der Student aus dem Computer (2023) 0.03
    0.02931067 = product of:
      0.11724268 = sum of:
        0.11724268 = sum of:
          0.033908512 = weight(_text_:der in 1079) [ClassicSimilarity], result of:
            0.033908512 = score(doc=1079,freq=2.0), product of:
              0.098138146 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.043933928 = queryNorm
              0.34551817 = fieldWeight in 1079, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.109375 = fieldNorm(doc=1079)
          0.08333416 = weight(_text_:22 in 1079) [ClassicSimilarity], result of:
            0.08333416 = score(doc=1079,freq=2.0), product of:
              0.15384912 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043933928 = queryNorm
              0.5416616 = fieldWeight in 1079, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.109375 = fieldNorm(doc=1079)
      0.25 = coord(1/4)
    
    Date
    27. 1.2023 16:22:55
  16. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.03
    0.028691556 = product of:
      0.057383113 = sum of:
        0.04042886 = weight(_text_:c in 5978) [ClassicSimilarity], result of:
          0.04042886 = score(doc=5978,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.2667763 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.016954256 = product of:
          0.033908512 = sum of:
            0.033908512 = weight(_text_:der in 5978) [ClassicSimilarity], result of:
              0.033908512 = score(doc=5978,freq=8.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.34551817 = fieldWeight in 5978, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5978)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  17. Schwarz, C.: Natural language and information retrieval : Kommentierte Literaturliste zu Systemen, Verfahren und Tools (1986) 0.03
    0.028587522 = product of:
      0.11435009 = sum of:
        0.11435009 = weight(_text_:c in 408) [ClassicSimilarity], result of:
          0.11435009 = score(doc=408,freq=4.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.7545574 = fieldWeight in 408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.109375 = fieldNorm(doc=408)
      0.25 = coord(1/4)
    
    Source
    Informationsliguistische Texterschließung. Hrsg.: C. Schwarz u. G. Thurmair
  18. Working with conceptual structures : contributions to ICCS 2000. 8th International Conference on Conceptual Structures: Logical, Linguistic, and Computational Issues. Darmstadt, August 14-18, 2000 (2000) 0.03
    0.028536096 = product of:
      0.057072192 = sum of:
        0.052833628 = weight(_text_:van in 5089) [ClassicSimilarity], result of:
          0.052833628 = score(doc=5089,freq=2.0), product of:
            0.24500148 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.043933928 = queryNorm
            0.21564616 = fieldWeight in 5089, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5089)
        0.004238564 = product of:
          0.008477128 = sum of:
            0.008477128 = weight(_text_:der in 5089) [ClassicSimilarity], result of:
              0.008477128 = score(doc=5089,freq=2.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.08637954 = fieldWeight in 5089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5089)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Concepts & Language: Knowledge organization by procedures of natural language processing. A case study using the method GABEK (J. Zelger, J. Gadner) - Computer aided narrative analysis using conceptual graphs (H. Schärfe, P. 0hrstrom) - Pragmatic representation of argumentative text: a challenge for the conceptual graph approach (H. Irandoust, B. Moulin) - Conceptual graphs as a knowledge representation core in a complex language learning environment (G. Angelova, A. Nenkova, S. Boycheva, T. Nikolov) - Conceptual Modeling and Ontologies: Relationships and actions in conceptual categories (Ch. Landauer, K.L. Bellman) - Concept approximations for formal concept analysis (J. Saquer, J.S. Deogun) - Faceted information representation (U. Priß) - Simple concept graphs with universal quantifiers (J. Tappe) - A framework for comparing methods for using or reusing multiple ontologies in an application (J. van ZyI, D. Corbett) - Designing task/method knowledge-based systems with conceptual graphs (M. Leclère, F.Trichet, Ch. Choquet) - A logical ontology (J. Farkas, J. Sarbo) - Algorithms and Tools: Fast concept analysis (Ch. Lindig) - A framework for conceptual graph unification (D. Corbett) - Visual CP representation of knowledge (H.D. Pfeiffer, R.T. Hartley) - Maximal isojoin for representing software textual specifications and detecting semantic anomalies (Th. Charnois) - Troika: using grids, lattices and graphs in knowledge acquisition (H.S. Delugach, B.E. Lampkin) - Open world theorem prover for conceptual graphs (J.E. Heaton, P. Kocura) - NetCare: a practical conceptual graphs software tool (S. Polovina, D. Strang) - CGWorld - a web based workbench for conceptual graphs management and applications (P. Dobrev, K. Toutanova) - Position papers: The edition project: Peirce's existential graphs (R. Mülller) - Mining association rules using formal concept analysis (N. Pasquier) - Contextual logic summary (R Wille) - Information channels and conceptual scaling (K.E. Wolff) - Spatial concepts - a rule exploration (S. Rudolph) - The TEXT-TO-ONTO learning environment (A. Mädche, St. Staab) - Controlling the semantics of metadata on audio-visual documents using ontologies (Th. Dechilly, B. Bachimont) - Building the ontological foundations of a terminology from natural language to conceptual graphs with Ribosome, a knowledge extraction system (Ch. Jacquelinet, A. Burgun) - CharGer: some lessons learned and new directions (H.S. Delugach) - Knowledge management using conceptual graphs (W.K. Pun)
    Series
    Berichte aus der Informatik
  19. Cruys, T. van de; Moirón, B.V.: Semantics-based multiword expression extraction (2007) 0.03
    0.026416814 = product of:
      0.105667256 = sum of:
        0.105667256 = weight(_text_:van in 2919) [ClassicSimilarity], result of:
          0.105667256 = score(doc=2919,freq=2.0), product of:
            0.24500148 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.043933928 = queryNorm
            0.43129233 = fieldWeight in 2919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2919)
      0.25 = coord(1/4)
    
  20. Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998) 0.03
    0.025450412 = product of:
      0.050900824 = sum of:
        0.03465331 = weight(_text_:c in 2528) [ClassicSimilarity], result of:
          0.03465331 = score(doc=2528,freq=2.0), product of:
            0.15154591 = queryWeight, product of:
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.043933928 = queryNorm
            0.22866541 = fieldWeight in 2528, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4494052 = idf(docFreq=3817, maxDocs=44218)
              0.046875 = fieldNorm(doc=2528)
        0.016247515 = product of:
          0.03249503 = sum of:
            0.03249503 = weight(_text_:der in 2528) [ClassicSimilarity], result of:
              0.03249503 = score(doc=2528,freq=10.0), product of:
                0.098138146 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043933928 = queryNorm
                0.3311152 = fieldWeight in 2528, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2528)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.
    Footnote
    Vgl. auch die Erwiderung: Ladewig, C.: 'Information Retrieval ohne Linguistik?' in: nfd 49(1998) H.8, S.476-478

Years

Languages

  • d 193
  • e 121
  • m 4
  • More… Less…

Types

  • a 238
  • m 45
  • el 40
  • s 23
  • x 12
  • d 2
  • p 2
  • More… Less…

Subjects

Classifications