Search (50 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Computerlinguistik"
  • × type_ss:"a"
  1. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.06
    0.06119021 = product of:
      0.21416573 = sum of:
        0.036144804 = weight(_text_:retrieval in 5978) [ClassicSimilarity], result of:
          0.036144804 = score(doc=5978,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33085006 = fieldWeight in 5978, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.17802092 = weight(_text_:textverarbeitung in 5978) [ClassicSimilarity], result of:
          0.17802092 = score(doc=5978,freq=2.0), product of:
            0.28832662 = queryWeight, product of:
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.036116153 = queryNorm
            0.617428 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  2. Winograd, T.: Software für Sprachverarbeitung (1984) 0.04
    0.036330804 = product of:
      0.2543156 = sum of:
        0.2543156 = weight(_text_:textverarbeitung in 1687) [ClassicSimilarity], result of:
          0.2543156 = score(doc=1687,freq=2.0), product of:
            0.28832662 = queryWeight, product of:
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.036116153 = queryNorm
            0.88204 = fieldWeight in 1687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.078125 = fieldNorm(doc=1687)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Computer kann mit sprachlichen Zeichen sicher und schnell umgehen. Dies zeigen Programme zur Textverarbeitung. Versuche allerdings, ihn auch mit Bedeutungen operieren zu lassen, sind gescheitert. Wird der Rechner das größte Problem der Sprachverarbeitung - die Mehrdeutigkeit natürlicher Sprachen - jemals bewältigen?
  3. Wenzel, F.: Semantische Eingrenzung im Freitext-Retrieval auf der Basis morphologischer Segmentierungen (1980) 0.02
    0.022771174 = product of:
      0.07969911 = sum of:
        0.063240245 = weight(_text_:retrieval in 2037) [ClassicSimilarity], result of:
          0.063240245 = score(doc=2037,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.5788671 = fieldWeight in 2037, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=2037)
        0.01645886 = product of:
          0.049376577 = sum of:
            0.049376577 = weight(_text_:29 in 2037) [ClassicSimilarity], result of:
              0.049376577 = score(doc=2037,freq=2.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.38865322 = fieldWeight in 2037, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2037)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    The basic problem in freetext retrieval is that the retrieval language is not properly adapted to that of the author. Morphological segmentation, where words with the same root are grouped together in the inverted file, is a good eliminator of noise and information loss, providing high recall but low precision
    Source
    Nachrichten für Dokumentation. 31(1980) H.1, S.29-35
  4. Zimmermann, H.H.: Maschinelle und Computergestützte Übersetzung (2004) 0.02
    0.021798484 = product of:
      0.15258938 = sum of:
        0.15258938 = weight(_text_:textverarbeitung in 2943) [ClassicSimilarity], result of:
          0.15258938 = score(doc=2943,freq=2.0), product of:
            0.28832662 = queryWeight, product of:
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.036116153 = queryNorm
            0.52922404 = fieldWeight in 2943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.983315 = idf(docFreq=40, maxDocs=44218)
              0.046875 = fieldNorm(doc=2943)
      0.14285715 = coord(1/7)
    
    Abstract
    Unter Maschineller Übersetzung (Machine Translation, MT) wird im Folgenden die vollautomatische Übersetzung eines Textes in natürlicher Sprache in eine andere natürliche Sprache verstanden. Unter Human-Übersetzung (Human Translation, HT) wird die intellektuelle Übersetzung eines Textes mit oder ohne maschinelle lexikalische Hilfen mit oder ohne Textverarbeitung verstanden. Unter computergestützter bzw computerunterstützter Übersetzung (CAT) wird einerseits eine intellektuelle Übersetzung verstanden, die auf einer maschinellen Vorübersetzung/Rohübersetzung (MT) aufbaut, die nachfolgend intellektuell nachbereitet wird (Postedition); andererseits wird darunter eine intellektuelle Übersetzung verstanden, bei der vor oder während des intellektuellen Übersetzungsprozesses ein Translation Memory und/ oder eine Terminologie-Bank verwendet werden. Unter ICAT wird eine spezielle Variante von CAT verstanden, bei der ein Nutzer ohne (hinreichende) Kenntnis der Zielsprache bei einer Übersetzung aus seiner Muttersprache so unterstützt wird, dass das zielsprachige Äquivalent relativ fehlerfrei ist.
  5. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.01
    0.010701683 = product of:
      0.03745589 = sum of:
        0.025817718 = weight(_text_:retrieval in 566) [ClassicSimilarity], result of:
          0.025817718 = score(doc=566,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23632148 = fieldWeight in 566, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.011638171 = product of:
          0.034914512 = sum of:
            0.034914512 = weight(_text_:29 in 566) [ClassicSimilarity], result of:
              0.034914512 = score(doc=566,freq=4.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.2748193 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Date
    25.10.2007 9:51:29
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  6. Schwarz, C.: Linguistische Hilfsmittel beim Information Retrieval (1984) 0.01
    0.008345548 = product of:
      0.058418833 = sum of:
        0.058418833 = weight(_text_:retrieval in 545) [ClassicSimilarity], result of:
          0.058418833 = score(doc=545,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.5347345 = fieldWeight in 545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=545)
      0.14285715 = coord(1/7)
    
  7. Rapp, R.: Text-Detektor : Fehlertolerantes Retrieval ganz einfach (1997) 0.01
    0.008345548 = product of:
      0.058418833 = sum of:
        0.058418833 = weight(_text_:retrieval in 3918) [ClassicSimilarity], result of:
          0.058418833 = score(doc=3918,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.5347345 = fieldWeight in 3918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=3918)
      0.14285715 = coord(1/7)
    
  8. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.007665875 = product of:
      0.053661123 = sum of:
        0.053661123 = weight(_text_:retrieval in 6386) [ClassicSimilarity], result of:
          0.053661123 = score(doc=6386,freq=12.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.49118498 = fieldWeight in 6386, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  9. Rahmstorf, G.: Semantisches Information Retrieval (1994) 0.01
    0.007302354 = product of:
      0.051116478 = sum of:
        0.051116478 = weight(_text_:retrieval in 8879) [ClassicSimilarity], result of:
          0.051116478 = score(doc=8879,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46789268 = fieldWeight in 8879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=8879)
      0.14285715 = coord(1/7)
    
  10. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.01
    0.007302354 = product of:
      0.051116478 = sum of:
        0.051116478 = weight(_text_:retrieval in 5270) [ClassicSimilarity], result of:
          0.051116478 = score(doc=5270,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46789268 = fieldWeight in 5270, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=5270)
      0.14285715 = coord(1/7)
    
  11. Kummer, N.: Indexierungstechniken für das japanische Retrieval (2006) 0.01
    0.0072274567 = product of:
      0.050592195 = sum of:
        0.050592195 = weight(_text_:retrieval in 5979) [ClassicSimilarity], result of:
          0.050592195 = score(doc=5979,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46309367 = fieldWeight in 5979, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5979)
      0.14285715 = coord(1/7)
    
    Abstract
    Der vorliegende Artikel beschreibt die Herausforderungen, die die japanische Sprache aufgrund der besonderen Struktur ihres Schriftsystems an das Information Retrieval stellt und präsentiert Strategien und Ansätze für die Indexierung japanischer Dokumente. Im Besonderen soll auf die Effektivität aussprachebasierter (yomi-based) Indexierung sowie Fusion verschiedener einzelner Indexierungsansätze eingegangen werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Ohly, H.P.; Binder, G.: Semantisches Retrieval mit sozialwissenschaftlichen Dokumenten : erste Erfahrungen mit RELATIO/IR (1994) 0.01
    0.0062591606 = product of:
      0.043814123 = sum of:
        0.043814123 = weight(_text_:retrieval in 346) [ClassicSimilarity], result of:
          0.043814123 = score(doc=346,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.40105087 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=346)
      0.14285715 = coord(1/7)
    
  13. Göpferich, S.: Von der Terminographie zur Textographie : computergestützte Verwaltung textsortenspezifischer Textversatzstücke (1995) 0.01
    0.0059011932 = product of:
      0.04130835 = sum of:
        0.04130835 = weight(_text_:retrieval in 4567) [ClassicSimilarity], result of:
          0.04130835 = score(doc=4567,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37811437 = fieldWeight in 4567, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=4567)
      0.14285715 = coord(1/7)
    
    Abstract
    The paper presents 2 different types of computer-based retrieval systems for text-type specific information ranging from phrases to whole standardized passages. The first part describes the structure of a full-text database for text prototypes, the second part, ways of storing text-type specific phrases and passages an a combined terminological and textographic database. The program used to illustrate this second kind of retrieval system is the terminology system CATS, which the Terminology Centre at the Faculty of Applied Linguistics and Cultural Studies of the University of Mainz in Germersheim uses for its FASTERM database
  14. Ladewig, C.: 'Information Retrieval ohne Linguistik?' : Erwiderung zu dem Artikel von Gerda Ruge und Sebastian Goeser, Nfd 49(1998) H.6, S.361-369 (1998) 0.01
    0.0059011932 = product of:
      0.04130835 = sum of:
        0.04130835 = weight(_text_:retrieval in 2513) [ClassicSimilarity], result of:
          0.04130835 = score(doc=2513,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37811437 = fieldWeight in 2513, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2513)
      0.14285715 = coord(1/7)
    
    Abstract
    Es wird eine Gegendarstellung zu Untersuchungen der Effektivität von Information Retrieval Systemen anhand der Rechercheparameter Precision und Recall gegeben. Grundlage dieser Untersuchungen sind Relevanzbestimmungen oder -einschätzungen, deren Widersprüchlichkeit geklärt wird und es werden Lösungen angeboten
  15. Schneider, R.: Question answering : das Retrieval der Zukunft? (2007) 0.01
    0.0059011932 = product of:
      0.04130835 = sum of:
        0.04130835 = weight(_text_:retrieval in 5953) [ClassicSimilarity], result of:
          0.04130835 = score(doc=5953,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37811437 = fieldWeight in 5953, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5953)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Artikel geht der Frage nach, ob und inwieweit Informations- und Recherchesysteme von der Technologie natürlich sprachlicher Frage-Antwortsysteme, so genannter Question Answering-Systeme, profitieren können. Nach einer allgemeinen Einführung in die Zielsetzung und die historische Entwicklung dieses Sonderzweigs der maschinellen Sprachverarbeitung werden dessen Abgrenzung von herkömmlichen Retrieval- und Extraktionsverfahren erläutert und die besondere Struktur von Question Answering-Systemen sowie einzelne Evaluierungsinitiativen aufgezeichnet. Zudem werden konkrete Anwendungsfelder im Bibliothekswesen vorgestellt.
  16. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.0058316286 = product of:
      0.0408214 = sum of:
        0.0408214 = weight(_text_:retrieval in 5863) [ClassicSimilarity], result of:
          0.0408214 = score(doc=5863,freq=10.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37365708 = fieldWeight in 5863, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  17. Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998) 0.01
    0.0054205926 = product of:
      0.037944146 = sum of:
        0.037944146 = weight(_text_:retrieval in 2528) [ClassicSimilarity], result of:
          0.037944146 = score(doc=2528,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.34732026 = fieldWeight in 2528, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=2528)
      0.14285715 = coord(1/7)
    
    Abstract
    Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.
    Footnote
    Vgl. auch die Erwiderung: Ladewig, C.: 'Information Retrieval ohne Linguistik?' in: nfd 49(1998) H.8, S.476-478
  18. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.01
    0.0054205926 = product of:
      0.037944146 = sum of:
        0.037944146 = weight(_text_:retrieval in 5964) [ClassicSimilarity], result of:
          0.037944146 = score(doc=5964,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.34732026 = fieldWeight in 5964, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.14285715 = coord(1/7)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  19. Gerstenkorn, A.: Indexierung mit Nominalgruppen (1980) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 6685) [ClassicSimilarity], result of:
          0.03651177 = score(doc=6685,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 6685, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=6685)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Indexierung mit Nominalgruppen ist eine konsequente Fortsetzung der Entwicklung von der gleichordnenden zur syntaktischen Indexierung. Nominalgruppen eignen sich besonders zur Bezeichnung komplexer Begriffe (Themen) und sind benutzerfreundlich. Bei einer automatischen Indexierung mit Nominalgruppen sind keine vollständigen Satzanalysen nötig, auch Systeme mit einem partiellen Parser liefern brauchbare Ergebnisse. Das Problem eines Retrieval mit Nominalgruppen ist noch zu lösen
  20. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 3412) [ClassicSimilarity], result of:
          0.03651177 = score(doc=3412,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.14285715 = coord(1/7)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt