Search (67 results, page 1 of 4)

  • × theme_ss:"Computerlinguistik"
  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.26
    0.25833747 = product of:
      0.3875062 = sum of:
        0.054560162 = product of:
          0.16368048 = sum of:
            0.16368048 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.16368048 = score(doc=562,freq=2.0), product of:
                0.29123706 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03435205 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.16368048 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16368048 = score(doc=562,freq=2.0), product of:
            0.29123706 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03435205 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.16368048 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.16368048 = score(doc=562,freq=2.0), product of:
            0.29123706 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03435205 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.005585074 = product of:
          0.02792537 = sum of:
            0.02792537 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.02792537 = score(doc=562,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.2 = coord(1/5)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.02
    0.021501465 = product of:
      0.06450439 = sum of:
        0.060608 = weight(_text_:suchmaschinen in 5218) [ClassicSimilarity], result of:
          0.060608 = score(doc=5218,freq=8.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.3948991 = fieldWeight in 5218, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03125 = fieldNorm(doc=5218)
        0.0038963922 = product of:
          0.01948196 = sum of:
            0.01948196 = weight(_text_:28 in 5218) [ClassicSimilarity], result of:
              0.01948196 = score(doc=5218,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.15831517 = fieldWeight in 5218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5218)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
    Date
    19. 7.2006 20:28:27
  3. Nait-Baha, L.; Jackiewicz, A.; Djioua, B.; Laublet, P.: Query reformulation for information retrieval on the Web using the point of view methodology : preliminary results (2001) 0.02
    0.017907165 = product of:
      0.053721495 = sum of:
        0.045456 = weight(_text_:suchmaschinen in 249) [ClassicSimilarity], result of:
          0.045456 = score(doc=249,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.29617432 = fieldWeight in 249, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=249)
        0.008265496 = product of:
          0.04132748 = sum of:
            0.04132748 = weight(_text_:28 in 249) [ClassicSimilarity], result of:
              0.04132748 = score(doc=249,freq=4.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.3358372 = fieldWeight in 249, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=249)
          0.2 = coord(1/5)
      0.33333334 = coord(2/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 28(2001) no.3, S.129-136
    Theme
    Suchmaschinen
  4. Hane, P.J.: Beyond keyword searching : Oingo and Simpli.com introduce meaning-based searching (2000) 0.02
    0.017677333 = product of:
      0.106064 = sum of:
        0.106064 = weight(_text_:suchmaschinen in 6301) [ClassicSimilarity], result of:
          0.106064 = score(doc=6301,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6910734 = fieldWeight in 6301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=6301)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  5. Notess, G.R.: Up and coming search technologies (2000) 0.02
    0.017677333 = product of:
      0.106064 = sum of:
        0.106064 = weight(_text_:suchmaschinen in 5467) [ClassicSimilarity], result of:
          0.106064 = score(doc=5467,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.6910734 = fieldWeight in 5467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.109375 = fieldNorm(doc=5467)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  6. Feldman, S.: Find what I mean, not what I say : meaning-based search tools (2000) 0.01
    0.012626667 = product of:
      0.07576 = sum of:
        0.07576 = weight(_text_:suchmaschinen in 4799) [ClassicSimilarity], result of:
          0.07576 = score(doc=4799,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.49362388 = fieldWeight in 4799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.078125 = fieldNorm(doc=4799)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  7. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.012499763 = product of:
      0.07499857 = sum of:
        0.07499857 = weight(_text_:suchmaschinen in 5912) [ClassicSimilarity], result of:
          0.07499857 = score(doc=5912,freq=16.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.48866272 = fieldWeight in 5912, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.16666667 = coord(1/6)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
    Theme
    Suchmaschinen
  8. Doszkocs, T.E.; Zamora, A.: Dictionary services and spelling aids for Web searching (2004) 0.01
    0.008074521 = product of:
      0.048447125 = sum of:
        0.048447125 = product of:
          0.080745205 = sum of:
            0.024352452 = weight(_text_:28 in 2541) [ClassicSimilarity], result of:
              0.024352452 = score(doc=2541,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19789396 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.023482382 = weight(_text_:29 in 2541) [ClassicSimilarity], result of:
              0.023482382 = score(doc=2541,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19432661 = fieldWeight in 2541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
            0.032910366 = weight(_text_:22 in 2541) [ClassicSimilarity], result of:
              0.032910366 = score(doc=2541,freq=4.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27358043 = fieldWeight in 2541, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2541)
          0.6 = coord(3/5)
      0.16666667 = coord(1/6)
    
    Date
    14. 8.2004 17:22:56
    Source
    Online. 28(2004) no.3, S.22-29
  9. Mustafa El Hadi, W.: Evaluating human language technology : general applications to information access and management (2002) 0.01
    0.0076535735 = product of:
      0.04592144 = sum of:
        0.04592144 = product of:
          0.1148036 = sum of:
            0.05844588 = weight(_text_:28 in 1840) [ClassicSimilarity], result of:
              0.05844588 = score(doc=1840,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.4749455 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1840)
            0.056357715 = weight(_text_:29 in 1840) [ClassicSimilarity], result of:
              0.056357715 = score(doc=1840,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.46638384 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1840)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.124-134
  10. Radev, D.; Fan, W.; Qu, H.; Wu, H.; Grewal, A.: Probabilistic question answering on the Web (2005) 0.01
    0.007576 = product of:
      0.045456 = sum of:
        0.045456 = weight(_text_:suchmaschinen in 3455) [ClassicSimilarity], result of:
          0.045456 = score(doc=3455,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.29617432 = fieldWeight in 3455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.046875 = fieldNorm(doc=3455)
      0.16666667 = coord(1/6)
    
    Theme
    Suchmaschinen
  11. Chen, K.-H.: Evaluating Chinese text retrieval with multilingual queries (2002) 0.00
    0.004464585 = product of:
      0.026787508 = sum of:
        0.026787508 = product of:
          0.06696877 = sum of:
            0.034093432 = weight(_text_:28 in 1851) [ClassicSimilarity], result of:
              0.034093432 = score(doc=1851,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27705154 = fieldWeight in 1851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1851)
            0.032875333 = weight(_text_:29 in 1851) [ClassicSimilarity], result of:
              0.032875333 = score(doc=1851,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27205724 = fieldWeight in 1851, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1851)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.156-170
  12. Bowker, L.: Information retrieval in translation memory systems : assessment of current limitations and possibilities for future development (2002) 0.00
    0.004464585 = product of:
      0.026787508 = sum of:
        0.026787508 = product of:
          0.06696877 = sum of:
            0.034093432 = weight(_text_:28 in 1854) [ClassicSimilarity], result of:
              0.034093432 = score(doc=1854,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27705154 = fieldWeight in 1854, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1854)
            0.032875333 = weight(_text_:29 in 1854) [ClassicSimilarity], result of:
              0.032875333 = score(doc=1854,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27205724 = fieldWeight in 1854, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1854)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.198-203
  13. Schneider, R.: Web 3.0 ante portas? : Integration von Social Web und Semantic Web (2008) 0.00
    0.0044448692 = product of:
      0.026669214 = sum of:
        0.026669214 = product of:
          0.06667303 = sum of:
            0.034093432 = weight(_text_:28 in 4184) [ClassicSimilarity], result of:
              0.034093432 = score(doc=4184,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.27705154 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
            0.0325796 = weight(_text_:22 in 4184) [ClassicSimilarity], result of:
              0.0325796 = score(doc=4184,freq=2.0), product of:
                0.120295025 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03435205 = queryNorm
                0.2708308 = fieldWeight in 4184, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4184)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2011 10:38:28
  14. Ferret, O.; Grau, B.; Hurault-Plantet, M.; Illouz, G.; Jacquemin, C.; Monceaux, L.; Robba, I.; Vilnat, A.: How NLP can improve question answering (2002) 0.00
    0.0038267868 = product of:
      0.02296072 = sum of:
        0.02296072 = product of:
          0.0574018 = sum of:
            0.02922294 = weight(_text_:28 in 1850) [ClassicSimilarity], result of:
              0.02922294 = score(doc=1850,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23747274 = fieldWeight in 1850, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1850)
            0.028178858 = weight(_text_:29 in 1850) [ClassicSimilarity], result of:
              0.028178858 = score(doc=1850,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23319192 = fieldWeight in 1850, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1850)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.135-155
  15. Sidhom, S.; Hassoun, M.: Morpho-syntactic parsing for a text mining environment : An NP recognition model for knowledge visualization and information retrieval (2002) 0.00
    0.0038267868 = product of:
      0.02296072 = sum of:
        0.02296072 = product of:
          0.0574018 = sum of:
            0.02922294 = weight(_text_:28 in 1852) [ClassicSimilarity], result of:
              0.02922294 = score(doc=1852,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23747274 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1852)
            0.028178858 = weight(_text_:29 in 1852) [ClassicSimilarity], result of:
              0.028178858 = score(doc=1852,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23319192 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1852)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.171-180
  16. L'Homme, D.; L'Homme, M.-C.; Lemay, C.: Benchmarking the performance of two Part-of-Speech (POS) taggers for terminological purposes (2002) 0.00
    0.0038267868 = product of:
      0.02296072 = sum of:
        0.02296072 = product of:
          0.0574018 = sum of:
            0.02922294 = weight(_text_:28 in 1855) [ClassicSimilarity], result of:
              0.02922294 = score(doc=1855,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23747274 = fieldWeight in 1855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1855)
            0.028178858 = weight(_text_:29 in 1855) [ClassicSimilarity], result of:
              0.028178858 = score(doc=1855,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.23319192 = fieldWeight in 1855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1855)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.204-216
  17. Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005) 0.00
    0.003788 = product of:
      0.022728 = sum of:
        0.022728 = weight(_text_:suchmaschinen in 3385) [ClassicSimilarity], result of:
          0.022728 = score(doc=3385,freq=2.0), product of:
            0.15347718 = queryWeight, product of:
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.03435205 = queryNorm
            0.14808716 = fieldWeight in 3385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4677734 = idf(docFreq=1378, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3385)
      0.16666667 = coord(1/6)
    
    Content
    "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
  18. Ibekwe-SanJuan, F.; SanJuan, E.: From term variants to research topics (2002) 0.00
    0.0031889891 = product of:
      0.019133935 = sum of:
        0.019133935 = product of:
          0.047834836 = sum of:
            0.024352452 = weight(_text_:28 in 1853) [ClassicSimilarity], result of:
              0.024352452 = score(doc=1853,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19789396 = fieldWeight in 1853, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1853)
            0.023482382 = weight(_text_:29 in 1853) [ClassicSimilarity], result of:
              0.023482382 = score(doc=1853,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19432661 = fieldWeight in 1853, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1853)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    Source
    Knowledge organization. 29(2002) nos.3/4, S.181-197
  19. Rosemblat, G.; Tse, T.; Gemoets, D.: Adapting a monolingual consumer health system for Spanish cross-language information retrieval (2004) 0.00
    0.0031889891 = product of:
      0.019133935 = sum of:
        0.019133935 = product of:
          0.047834836 = sum of:
            0.024352452 = weight(_text_:28 in 2673) [ClassicSimilarity], result of:
              0.024352452 = score(doc=2673,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19789396 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2673)
            0.023482382 = weight(_text_:29 in 2673) [ClassicSimilarity], result of:
              0.023482382 = score(doc=2673,freq=2.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19432661 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2673)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    29. 8.2004 19:12:06
  20. Jones, I.; Cunliffe, D.; Tudhope, D.: Natural language processing and knowledge organization systems as an aid to retrieval (2004) 0.00
    0.002686206 = product of:
      0.016117236 = sum of:
        0.016117236 = product of:
          0.04029309 = sum of:
            0.017046716 = weight(_text_:28 in 2677) [ClassicSimilarity], result of:
              0.017046716 = score(doc=2677,freq=2.0), product of:
                0.12305808 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03435205 = queryNorm
                0.13852577 = fieldWeight in 2677, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2677)
            0.023246372 = weight(_text_:29 in 2677) [ClassicSimilarity], result of:
              0.023246372 = score(doc=2677,freq=4.0), product of:
                0.12083977 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03435205 = queryNorm
                0.19237353 = fieldWeight in 2677, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2677)
          0.4 = coord(2/5)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.1997 18:30:28
    29. 8.2004 19:29:56

Languages

  • e 49
  • d 16
  • slv 1
  • More… Less…

Types

  • a 57
  • m 6
  • el 3
  • x 3
  • s 1
  • More… Less…

Classifications