Search (80 results, page 1 of 4)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Fieldhouse, M.; Hancock-Beaulieu, M.: ¬The design of a graphical user interface for a highly interactive information retrieval system (1996) 0.02
    0.02461308 = product of:
      0.092299044 = sum of:
        0.027815886 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.027815886 = score(doc=6958,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.027815886 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.027815886 = score(doc=6958,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.027815886 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.027815886 = score(doc=6958,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.008851384 = product of:
          0.02655415 = sum of:
            0.02655415 = weight(_text_:22 in 6958) [ClassicSimilarity], result of:
              0.02655415 = score(doc=6958,freq=2.0), product of:
                0.09804701 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027998796 = queryNorm
                0.2708308 = fieldWeight in 6958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6958)
          0.33333334 = coord(1/3)
      0.26666668 = coord(4/15)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  2. Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001) 0.02
    0.024013104 = product of:
      0.09004913 = sum of:
        0.023842188 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5856,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.023842188 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5856,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.023842188 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5856,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.018522572 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.018522572 = score(doc=5856,freq=8.0), product of:
            0.06254278 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027998796 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
      0.26666668 = coord(4/15)
    
    Abstract
    Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Schatz, B.R.; Johnson, E.H.; Cochrane, P.A.; Chen, H.: Interactive term suggestion for users of digital libraries : using thesauri and co-occurrence lists for information retrieval (1996) 0.02
    0.02384219 = product of:
      0.11921094 = sum of:
        0.039736982 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.039736982 = score(doc=6417,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
        0.039736982 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.039736982 = score(doc=6417,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
        0.039736982 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.039736982 = score(doc=6417,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
      0.2 = coord(3/15)
    
    Date
    10. 8.2001 21:23:46
  4. Hoang, H.H.; Tjoa, A.M: ¬The state of the art of ontology-based query systems : a comparison of existing approaches (2006) 0.02
    0.019073753 = product of:
      0.09536876 = sum of:
        0.031789586 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.031789586 = score(doc=792,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.031789586 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.031789586 = score(doc=792,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.031789586 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.031789586 = score(doc=792,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
      0.2 = coord(3/15)
    
    Date
    28.11.2016 18:23:55
  5. Walker, S.: Subject access in online catalogues (1991) 0.02
    0.019073753 = product of:
      0.09536876 = sum of:
        0.031789586 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.031789586 = score(doc=5690,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
        0.031789586 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.031789586 = score(doc=5690,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
        0.031789586 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.031789586 = score(doc=5690,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
      0.2 = coord(3/15)
    
    Pages
    S.23-33
  6. Bernier-Colborne, G.: Identifying semantic relations in a specialized corpus through distributional analysis of a cooccurrence tensor (2014) 0.02
    0.019073753 = product of:
      0.09536876 = sum of:
        0.031789586 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.031789586 = score(doc=2153,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
        0.031789586 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.031789586 = score(doc=2153,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
        0.031789586 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.031789586 = score(doc=2153,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
      0.2 = coord(3/15)
    
    Source
    Proceedings of the Third Joint Conference on Lexical and Computational Semantics (*SEM 2014), Dublin, Ireland, August 23-24 2014
  7. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.02
    0.01874953 = product of:
      0.070310734 = sum of:
        0.013907943 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.013907943 = score(doc=4884,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.013907943 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.013907943 = score(doc=4884,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.013907943 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.013907943 = score(doc=4884,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.028586904 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.028586904 = score(doc=4884,freq=56.0), product of:
            0.06254278 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027998796 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
      0.26666668 = coord(4/15)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
    Date
    27. 1.2006 13:23:26
  8. Schaefer, A.; Jordan, M.; Klas, C.-P.; Fuhr, N.: Active support for query formulation in virtual digital libraries : a case study with DAFFODIL (2005) 0.02
    0.016858974 = product of:
      0.08429487 = sum of:
        0.02809829 = weight(_text_:23 in 4296) [ClassicSimilarity], result of:
          0.02809829 = score(doc=4296,freq=4.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.28000468 = fieldWeight in 4296, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4296)
        0.02809829 = weight(_text_:23 in 4296) [ClassicSimilarity], result of:
          0.02809829 = score(doc=4296,freq=4.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.28000468 = fieldWeight in 4296, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4296)
        0.02809829 = weight(_text_:23 in 4296) [ClassicSimilarity], result of:
          0.02809829 = score(doc=4296,freq=4.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.28000468 = fieldWeight in 4296, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4296)
      0.2 = coord(3/15)
    
    Date
    16.11.2008 17:23:50
    Source
    Research and advanced technology for digital libraries : 9th European conference, ECDL 2005, Vienna, Austria, September 18-23, 2005 ; proceedings / Andreas Rauber ... (eds.)
  9. Nie, J.-Y.: Query expansion and query translation as logical inference (2003) 0.01
    0.014305313 = product of:
      0.071526565 = sum of:
        0.023842188 = weight(_text_:23 in 1425) [ClassicSimilarity], result of:
          0.023842188 = score(doc=1425,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 1425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1425)
        0.023842188 = weight(_text_:23 in 1425) [ClassicSimilarity], result of:
          0.023842188 = score(doc=1425,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 1425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1425)
        0.023842188 = weight(_text_:23 in 1425) [ClassicSimilarity], result of:
          0.023842188 = score(doc=1425,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 1425, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=1425)
      0.2 = coord(3/15)
    
    Date
    23. 3.2003 8:33:49
  10. Gnoli, C.; Pusterla, L.; Bendiscioli, A.; Recinella, C.: Classification for collections mapping and query expansion (2016) 0.01
    0.014305313 = product of:
      0.071526565 = sum of:
        0.023842188 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3102,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.023842188 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3102,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.023842188 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3102,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
      0.2 = coord(3/15)
    
    Pages
    S.23-31
  11. Li, N.; Sun, J.: Improving Chinese term association from the linguistic perspective (2017) 0.01
    0.014305313 = product of:
      0.071526565 = sum of:
        0.023842188 = weight(_text_:23 in 3381) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3381,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3381)
        0.023842188 = weight(_text_:23 in 3381) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3381,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3381)
        0.023842188 = weight(_text_:23 in 3381) [ClassicSimilarity], result of:
          0.023842188 = score(doc=3381,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 3381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3381)
      0.2 = coord(3/15)
    
    Source
    Knowledge organization. 44(2017) no.1, S.13-23
  12. Lee, Y.-Y.; Ke, H.; Yen, T.-Y.; Huang, H.-H.; Chen, H.-H.: Combining and learning word embedding with WordNet for semantic relatedness and similarity measurement (2020) 0.01
    0.014305313 = product of:
      0.071526565 = sum of:
        0.023842188 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5871,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.023842188 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5871,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.023842188 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.023842188 = score(doc=5871,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
      0.2 = coord(3/15)
    
    Date
    23. 5.2020 16:19:47
  13. Kelly, D.: Measuring online information seeking context : Part 1: background and method (2006) 0.01
    0.011921095 = product of:
      0.05960547 = sum of:
        0.019868491 = weight(_text_:23 in 206) [ClassicSimilarity], result of:
          0.019868491 = score(doc=206,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=206)
        0.019868491 = weight(_text_:23 in 206) [ClassicSimilarity], result of:
          0.019868491 = score(doc=206,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=206)
        0.019868491 = weight(_text_:23 in 206) [ClassicSimilarity], result of:
          0.019868491 = score(doc=206,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=206)
      0.2 = coord(3/15)
    
    Date
    3. 1.2007 17:28:23
  14. Jiang, Y.; Bai, W.; Zhang, X.; Hu, J.: Wikipedia-based information content and semantic similarity computation (2017) 0.01
    0.011921095 = product of:
      0.05960547 = sum of:
        0.019868491 = weight(_text_:23 in 2877) [ClassicSimilarity], result of:
          0.019868491 = score(doc=2877,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 2877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2877)
        0.019868491 = weight(_text_:23 in 2877) [ClassicSimilarity], result of:
          0.019868491 = score(doc=2877,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 2877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2877)
        0.019868491 = weight(_text_:23 in 2877) [ClassicSimilarity], result of:
          0.019868491 = score(doc=2877,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.1979932 = fieldWeight in 2877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2877)
      0.2 = coord(3/15)
    
    Date
    23. 1.2017 14:06:29
  15. Hazrina, S.; Sharef, N.M.; Ibrahim, H.; Murad, M.A.A.; Noah, S.A.M.: Review on the advancements of disambiguation in semantic question answering system (2017) 0.01
    0.009536876 = product of:
      0.04768438 = sum of:
        0.015894793 = weight(_text_:23 in 3292) [ClassicSimilarity], result of:
          0.015894793 = score(doc=3292,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 3292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=3292)
        0.015894793 = weight(_text_:23 in 3292) [ClassicSimilarity], result of:
          0.015894793 = score(doc=3292,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 3292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=3292)
        0.015894793 = weight(_text_:23 in 3292) [ClassicSimilarity], result of:
          0.015894793 = score(doc=3292,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 3292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=3292)
      0.2 = coord(3/15)
    
    Date
    23. 1.2017 14:07:03
  16. Surfing versus Drilling for knowledge in science : When should you use your computer? When should you use your brain? (2018) 0.01
    0.009536876 = product of:
      0.04768438 = sum of:
        0.015894793 = weight(_text_:23 in 4564) [ClassicSimilarity], result of:
          0.015894793 = score(doc=4564,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 4564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4564)
        0.015894793 = weight(_text_:23 in 4564) [ClassicSimilarity], result of:
          0.015894793 = score(doc=4564,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 4564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4564)
        0.015894793 = weight(_text_:23 in 4564) [ClassicSimilarity], result of:
          0.015894793 = score(doc=4564,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.15839456 = fieldWeight in 4564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4564)
      0.2 = coord(3/15)
    
    Date
    26.11.2018 12:48:23
  17. ALA / Subcommittee on Subject Relationships/Reference Structures: Final Report to the ALCTS/CCS Subject Analysis Committee (1997) 0.01
    0.008344766 = product of:
      0.04172383 = sum of:
        0.013907943 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.013907943 = score(doc=1800,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.013907943 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.013907943 = score(doc=1800,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.013907943 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.013907943 = score(doc=1800,freq=2.0), product of:
            0.10034936 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.027998796 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
      0.2 = coord(3/15)
    
    Date
    5. 4.2008 11:25:23
  18. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.00
    0.0040614735 = product of:
      0.03046105 = sum of:
        0.021609668 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.021609668 = score(doc=1852,freq=8.0), product of:
            0.06254278 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027998796 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.008851384 = product of:
          0.02655415 = sum of:
            0.02655415 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.02655415 = score(doc=1852,freq=2.0), product of:
                0.09804701 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027998796 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
      0.13333334 = coord(2/15)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
  19. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.00
    0.0040614735 = product of:
      0.03046105 = sum of:
        0.021609668 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.021609668 = score(doc=4324,freq=8.0), product of:
            0.06254278 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027998796 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.008851384 = product of:
          0.02655415 = sum of:
            0.02655415 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.02655415 = score(doc=4324,freq=2.0), product of:
                0.09804701 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027998796 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.13333334 = coord(2/15)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  20. Gillitzer, B.: Yewno (2017) 0.00
    0.0035261281 = product of:
      0.026445959 = sum of:
        0.021388024 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.021388024 = score(doc=3447,freq=24.0), product of:
            0.06254278 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027998796 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0050579337 = product of:
          0.015173801 = sum of:
            0.015173801 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.015173801 = score(doc=3447,freq=2.0), product of:
                0.09804701 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027998796 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.13333334 = coord(2/15)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49

Authors

Years

Languages

  • e 42
  • d 37

Types

  • a 66
  • el 11
  • m 5
  • r 3
  • s 2
  • x 2
  • More… Less…