Search (146 results, page 1 of 8)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001) 0.04
    0.041400343 = product of:
      0.13455111 = sum of:
        0.015683282 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5856,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.017992485 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5856,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.015683282 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5856,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.017992485 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5856,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.015683282 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5856,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.017840536 = weight(_text_:die in 5856) [ClassicSimilarity], result of:
          0.017840536 = score(doc=5856,freq=12.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.3966019 = fieldWeight in 5856, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.017992485 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.017992485 = score(doc=5856,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.015683282 = weight(_text_:23 in 5856) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5856,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
      0.30769232 = coord(8/26)
    
    Abstract
    Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  2. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.04
    0.038676977 = product of:
      0.12570018 = sum of:
        0.009148582 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.009148582 = score(doc=4884,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.021566441 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.021566441 = score(doc=4884,freq=76.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.009148582 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.009148582 = score(doc=4884,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.021566441 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.021566441 = score(doc=4884,freq=76.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.009148582 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.009148582 = score(doc=4884,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.02440653 = weight(_text_:die in 4884) [ClassicSimilarity], result of:
          0.02440653 = score(doc=4884,freq=66.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.5425664 = fieldWeight in 4884, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.021566441 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.021566441 = score(doc=4884,freq=76.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.009148582 = weight(_text_:23 in 4884) [ClassicSimilarity], result of:
          0.009148582 = score(doc=4884,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
      0.30769232 = coord(8/26)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
    Date
    27. 1.2006 13:23:26
  3. Hoang, H.H.; Tjoa, A.M: ¬The state of the art of ontology-based query systems : a comparison of existing approaches (2006) 0.03
    0.025194844 = product of:
      0.13101318 = sum of:
        0.020911044 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.020911044 = score(doc=792,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.020911044 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.020911044 = score(doc=792,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.020911044 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.020911044 = score(doc=792,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.020911044 = weight(_text_:23 in 792) [ClassicSimilarity], result of:
          0.020911044 = score(doc=792,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
        0.047369003 = weight(_text_:art in 792) [ClassicSimilarity], result of:
          0.047369003 = score(doc=792,freq=4.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.56700516 = fieldWeight in 792, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
      0.1923077 = coord(5/26)
    
    Abstract
    Based on an in-depth analysis of existing approaches in building ontology-based query systems we discuss and compare the methods, approaches to be used in current query systems using Ontology or the Semantic Web techniques. This paper identifies various relevant research directions in ontology-based querying research. Based on the results of our investigation we summarise the state of the art ontology-based query/search and name areas of further research activities.
    Date
    28.11.2016 18:23:55
  4. Revolutionäre neue Suchvariante mit neuem grafischen Assoziativ-OPAC : Spidersearch von BOND 0.02
    0.020011904 = product of:
      0.08671825 = sum of:
        0.0149937365 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.0149937365 = score(doc=1088,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.0149937365 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.0149937365 = score(doc=1088,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.012138948 = weight(_text_:die in 1088) [ClassicSimilarity], result of:
          0.012138948 = score(doc=1088,freq=8.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.2698534 = fieldWeight in 1088, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.0149937365 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.0149937365 = score(doc=1088,freq=18.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.02093434 = weight(_text_:art in 1088) [ClassicSimilarity], result of:
          0.02093434 = score(doc=1088,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.25058323 = fieldWeight in 1088, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.00866374 = weight(_text_:5 in 1088) [ClassicSimilarity], result of:
          0.00866374 = score(doc=1088,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.16120374 = fieldWeight in 1088, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
      0.23076923 = coord(6/26)
    
    Abstract
    "Ergonomisch" suchen! Ähnlich wie beim Surfen durch Webseiten, so navigiert der Leser mit SpiderSearch per Mausklick durch den Medienbestand der Bibliothek und erschließt diesen damit spielerisch. Wie kann man sich das vorstellen? SpiderSearch ist ein Zusatzmodul zum bewährten BOND-WebOPAC. Der Benutzer gibt, wie im normalen WebOPAC, sein gesuchtes Stichwort ein. Sofort setzt SpiderSearch den Begriff in das Zentrum einer grafischen Ergebnisoberfläche. Gleichzeitig bereitet SpiderSearch ein "semantisches Netz" mit "sinnvollen" Begriffen für die weitere Suche auf und stellt diese dem Leser in animierter visuell ansprechender Form zur Verfügung. Diese Begriffe (Assoziative) sind auf unterschiedliche Arten mit dem gesuchten Zentralbegriff verwandt. Sei es eine Wortverwandtschaft wie "Bibliothek" und "Bibliothekarin", eine Sinnverwandtschaft wie "Bibliothek" und "lesen" oder ein anderer sprachwissenschaftlicher Zusammenhang wie z.B. "Bibliothek" und "Ruhe". Die unterschiedlichen Verwandtschaftsarten werden durch unterschiedliche Farben und Größen deutlich. Zum Verfeinern kann der Benutzer einfach einen der verwandten Begriffe anklicken und die Suche wird um diesen Suchbegriff erweitert. So wird der Leser in seiner weiteren Suche quasi durch dieses "Netz" geführt. Eine revolutionäre Art der Suche, mit der die Bibliotheksbenutzer ihre eigenen Informationsnetze spinnen und einfach und sehr anschaulich den Medienbestand noch optimaler erschließen können.
    Source
    B.I.T.online. 5(2002) H.3, S.264
  5. Imhof, A.: RSWK/SWD und Faceted Browsing : neue Möglichkeiten einer inhaltlich-intuitiven Navigation (2006) 0.02
    0.019841107 = product of:
      0.103173755 = sum of:
        0.01599332 = weight(_text_:und in 5946) [ClassicSimilarity], result of:
          0.01599332 = score(doc=5946,freq=32.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 5946, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.01599332 = weight(_text_:und in 5946) [ClassicSimilarity], result of:
          0.01599332 = score(doc=5946,freq=32.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 5946, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018805576 = weight(_text_:die in 5946) [ClassicSimilarity], result of:
          0.018805576 = score(doc=5946,freq=30.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.41805512 = fieldWeight in 5946, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.01599332 = weight(_text_:und in 5946) [ClassicSimilarity], result of:
          0.01599332 = score(doc=5946,freq=32.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.39180204 = fieldWeight in 5946, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.03638822 = weight(_text_:freie in 5946) [ClassicSimilarity], result of:
          0.03638822 = score(doc=5946,freq=2.0), product of:
            0.123143926 = queryWeight, product of:
              6.686252 = idf(docFreq=149, maxDocs=44218)
              0.018417481 = queryNorm
            0.2954934 = fieldWeight in 5946, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.686252 = idf(docFreq=149, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
      0.1923077 = coord(5/26)
    
    Abstract
    Das deutschsprachige Bibliothekswesen verfügt mit den "Regeln für den Schlagwortkatalog" (RSWK) unter Verwendung der "Schlagwortnormdatei" (SWD) über ein Instrumentarium, welches zusammen mit einem "Faceted Browsing" das bisher bestehende Angebot für ein Information Retrieval optimal ergänzen kann. Die Verbindung zwischen Standardvokabular (SWD) und Kettenbildung (RSWK) einerseits und eine nach Facetten-Eigenschaften gegliederte Navigation andererseits unterstützt bestmöglich eine inhaltlich bezogene Recherche. Die Stärken und Schwächen der RSWK/SWD werden erörtert und auch Klassifikationen (DDC und RVK) als mögliche Facetten diskutiert.
    Content
    "Die kontinuierliche Optimierung der Informationsversorgung ist ein von allen Seiten unterstütztes Ziel in Forschung und Lehre. Neben der Verfügbarkeit an Literatur ist das Organisieren derselben, aber auch das Suchen, Finden und Erhalten von Informationen angesprochen. Die Anstrengungen der vergangenen Jahre für eine verbesserte Literaturrecherche haben in der Bibliothekswelt bereits zu einigen Erfolgen geführt. Inzwischen ist es selbstverständlich geworden, über das Internet in deutschen und internationalen Online-Katalogen nach relevanter Literatur zu suchen. Weiterführende Dienste wie Dokumentenlieferung oder direkte Verlinkung zu elektronischen Volltexten sind dabei nahtlos eingebunden. Die Weiterentwicklung bibliothekarischer Dienstleistungen werden ohne Unterbrechung vorangetrieben, zumal freie Suchmaschinen wie Google im "Information Retrieval", insbesondere durch Google-Scholar und Google-Buchsuche, einen beträchtlichen Konkurrenzdruck auf die Bibliotheken ausüben. Dabei drängt sich insgesamt der Eindruck auf, dass die Bibliotheken gegenüber den freien Suchmaschinen deren Entwicklungen hinterherlaufen. Ohne es als solches wahrzunehmen, verfügen die Bibliotheken im deutschsprachigen Raum jedoch über ein Instrument, mit dem sie im Wettbewerb mit Google um die Nutzerinnen wieder ihre Vorzüge herausstellen können. Es existiert längst ein Konzept, mit dessen Hilfe die Literaturrecherche inhaltlich-intuitiv gestaltet und damit ein Vorteil der Bibliotheksrecherche gegenüber kommerziellen Suchmaschinen herausgearbeitet werden kann. Das Konzept heißt "Regeln für den Schlagwortkatalog" (RSWK)' und bietet im Zusammenhang mit dem mittlerweile nicht mehr ganz so neuen Navigationskonzept "Faceted Browsing" ungeahnte Möglichkeiten eines intuitiven Recherschewerkzeuges, das Literatur gezielt inhaltlich entdecken lässt.
    ... Zusammenfassung Abschließend kann festgehalten werden, dass die RSWK/SWD für sich betrachtet in der bislang eingesetzten Form nicht ihre volle Wirkung im Information Retrieval erreicht. Das Faceted Browsing, für das bisher alle möglichen und unmöglichen Metadaten verwendet werden, ist zwar ein geeignetes Feature, liefert aber immer noch nicht den spürbaren Nutzungsgewinn. Die SWD, die leider noch nicht alle Wissenschaftsbereiche umfasst, und die unvollständige Erschließung mit RSWK/SWD ist zum jetzigen Zeitpunkt nicht vollends befriedigend. Doch ein Arrangement mit den Unzulänglichkeiten bis zur kontinuierlich verlaufenden Optimierung dieser Situation lohnt sich. Die RSWK/SWD und das Faceted Browsing spielen erst gemeinsam ihre Stärken richtig aus. Standardisiertes Vokabular (SWD) in einen Sinnzusammenhang gestellt (RSWK) bildet alle relevanten Eigenschaften eines Textes in kurzer, maschinenlesbarer Form (Faceted Browsing) ab. Auf diese Weise erhalten wir eine inhaltlich-intuitive Navigation über Bibliotheksbestände und weitere Literatur."
  6. Lee, Y.-Y.; Ke, H.; Yen, T.-Y.; Huang, H.-H.; Chen, H.-H.: Combining and learning word embedding with WordNet for semantic relatedness and similarity measurement (2020) 0.02
    0.01889613 = product of:
      0.09825988 = sum of:
        0.015683282 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5871,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.015683282 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5871,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.015683282 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5871,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.015683282 = weight(_text_:23 in 5871) [ClassicSimilarity], result of:
          0.015683282 = score(doc=5871,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 5871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
        0.035526752 = weight(_text_:art in 5871) [ClassicSimilarity], result of:
          0.035526752 = score(doc=5871,freq=4.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.42525387 = fieldWeight in 5871, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.046875 = fieldNorm(doc=5871)
      0.1923077 = coord(5/26)
    
    Abstract
    In this research, we propose 3 different approaches to measure the semantic relatedness between 2 words: (i) boost the performance of GloVe word embedding model via removing or transforming abnormal dimensions; (ii) linearly combine the information extracted from WordNet and word embeddings; and (iii) utilize word embedding and 12 linguistic information extracted from WordNet as features for Support Vector Regression. We conducted our experiments on 8 benchmark data sets, and computed Spearman correlations between the outputs of our methods and the ground truth. We report our results together with 3 state-of-the-art approaches. The experimental results show that our method can outperform state-of-the-art approaches in all the selected English benchmark data sets.
    Date
    23. 5.2020 16:19:47
  7. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.02
    0.018781474 = product of:
      0.08138639 = sum of:
        0.017139269 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.017139269 = score(doc=1852,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.017139269 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.017139269 = score(doc=1852,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.0120169455 = weight(_text_:die in 1852) [ClassicSimilarity], result of:
          0.0120169455 = score(doc=1852,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.26714125 = fieldWeight in 1852, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.017139269 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.017139269 = score(doc=1852,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.012129237 = weight(_text_:5 in 1852) [ClassicSimilarity], result of:
          0.012129237 = score(doc=1852,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.22568524 = fieldWeight in 1852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.0058224006 = product of:
          0.0174672 = sum of:
            0.0174672 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.0174672 = score(doc=1852,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
      0.23076923 = coord(6/26)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  8. Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006) 0.02
    0.01794553 = product of:
      0.093316756 = sum of:
        0.020775931 = weight(_text_:und in 6047) [ClassicSimilarity], result of:
          0.020775931 = score(doc=6047,freq=24.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5089658 = fieldWeight in 6047, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.020775931 = weight(_text_:und in 6047) [ClassicSimilarity], result of:
          0.020775931 = score(doc=6047,freq=24.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5089658 = fieldWeight in 6047, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.016286109 = weight(_text_:die in 6047) [ClassicSimilarity], result of:
          0.016286109 = score(doc=6047,freq=10.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.36204636 = fieldWeight in 6047, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.020775931 = weight(_text_:und in 6047) [ClassicSimilarity], result of:
          0.020775931 = score(doc=6047,freq=24.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.5089658 = fieldWeight in 6047, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.014702855 = weight(_text_:5 in 6047) [ClassicSimilarity], result of:
          0.014702855 = score(doc=6047,freq=4.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.27357182 = fieldWeight in 6047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
      0.1923077 = coord(5/26)
    
    Abstract
    In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
    Imprint
    Hannover : ASpB / Sektion 5 im DBV
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  9. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.02
    0.01715015 = product of:
      0.08918078 = sum of:
        0.016424816 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.016424816 = score(doc=2133,freq=60.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.016424816 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.016424816 = score(doc=2133,freq=60.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.012615166 = weight(_text_:die in 2133) [ClassicSimilarity], result of:
          0.012615166 = score(doc=2133,freq=24.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.2804399 = fieldWeight in 2133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.016424816 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.016424816 = score(doc=2133,freq=60.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.027291164 = weight(_text_:freie in 2133) [ClassicSimilarity], result of:
          0.027291164 = score(doc=2133,freq=2.0), product of:
            0.123143926 = queryWeight, product of:
              6.686252 = idf(docFreq=149, maxDocs=44218)
              0.018417481 = queryNorm
            0.22162005 = fieldWeight in 2133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.686252 = idf(docFreq=149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.1923077 = coord(5/26)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  10. ALA / Subcommittee on Subject Relationships/Reference Structures: Final Report to the ALCTS/CCS Subject Analysis Committee (1997) 0.02
    0.016355252 = product of:
      0.053154565 = sum of:
        0.009148582 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.009148582 = score(doc=1800,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.0034985386 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.0034985386 = score(doc=1800,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.085706696 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.009148582 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.009148582 = score(doc=1800,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.0034985386 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.0034985386 = score(doc=1800,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.085706696 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.009148582 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.009148582 = score(doc=1800,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.0034985386 = weight(_text_:und in 1800) [ClassicSimilarity], result of:
          0.0034985386 = score(doc=1800,freq=2.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.085706696 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.009148582 = weight(_text_:23 in 1800) [ClassicSimilarity], result of:
          0.009148582 = score(doc=1800,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.13859524 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
        0.0060646185 = weight(_text_:5 in 1800) [ClassicSimilarity], result of:
          0.0060646185 = score(doc=1800,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.11284262 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1800)
      0.30769232 = coord(8/26)
    
    Date
    5. 4.2008 11:25:23
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Schatz, B.R.; Johnson, E.H.; Cochrane, P.A.; Chen, H.: Interactive term suggestion for users of digital libraries : using thesauri and co-occurrence lists for information retrieval (1996) 0.02
    0.01608542 = product of:
      0.10455522 = sum of:
        0.026138805 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.026138805 = score(doc=6417,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
        0.026138805 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.026138805 = score(doc=6417,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
        0.026138805 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.026138805 = score(doc=6417,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
        0.026138805 = weight(_text_:23 in 6417) [ClassicSimilarity], result of:
          0.026138805 = score(doc=6417,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.3959864 = fieldWeight in 6417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.078125 = fieldNorm(doc=6417)
      0.15384616 = coord(4/26)
    
    Date
    10. 8.2001 21:23:46
  12. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.02
    0.015272619 = product of:
      0.079417616 = sum of:
        0.0165762 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.0165762 = score(doc=4599,freq=22.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.0165762 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.0165762 = score(doc=4599,freq=22.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.021025274 = weight(_text_:die in 4599) [ClassicSimilarity], result of:
          0.021025274 = score(doc=4599,freq=24.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.46739984 = fieldWeight in 4599, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.0165762 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.0165762 = score(doc=4599,freq=22.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.00866374 = weight(_text_:5 in 4599) [ClassicSimilarity], result of:
          0.00866374 = score(doc=4599,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.16120374 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.1923077 = coord(5/26)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Source
    o-bib: Das offene Bibliotheksjournal. 5(2018) Nr.4, S.127-140
  13. Fieldhouse, M.; Hancock-Beaulieu, M.: ¬The design of a graphical user interface for a highly interactive information retrieval system (1996) 0.02
    0.015194434 = product of:
      0.07901105 = sum of:
        0.018297164 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.018297164 = score(doc=6958,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.018297164 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.018297164 = score(doc=6958,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.018297164 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.018297164 = score(doc=6958,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.018297164 = weight(_text_:23 in 6958) [ClassicSimilarity], result of:
          0.018297164 = score(doc=6958,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.27719048 = fieldWeight in 6958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6958)
        0.0058224006 = product of:
          0.0174672 = sum of:
            0.0174672 = weight(_text_:22 in 6958) [ClassicSimilarity], result of:
              0.0174672 = score(doc=6958,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.2708308 = fieldWeight in 6958, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6958)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Source
    Information retrieval: new systems and current research. Proceedings of the 16th Research Colloquium of the British Computer Society Information Retrieval Specialist Group, Drymen, Scotland, 22-23 Mar 94. Ed.: R. Leon
  14. Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000) 0.01
    0.01492145 = product of:
      0.07759154 = sum of:
        0.01802023 = weight(_text_:und in 1404) [ClassicSimilarity], result of:
          0.01802023 = score(doc=1404,freq=26.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.441457 = fieldWeight in 1404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.01802023 = weight(_text_:und in 1404) [ClassicSimilarity], result of:
          0.01802023 = score(doc=1404,freq=26.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.441457 = fieldWeight in 1404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.014867113 = weight(_text_:die in 1404) [ClassicSimilarity], result of:
          0.014867113 = score(doc=1404,freq=12.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.33050156 = fieldWeight in 1404, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.01802023 = weight(_text_:und in 1404) [ClassicSimilarity], result of:
          0.01802023 = score(doc=1404,freq=26.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.441457 = fieldWeight in 1404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.00866374 = weight(_text_:5 in 1404) [ClassicSimilarity], result of:
          0.00866374 = score(doc=1404,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.16120374 = fieldWeight in 1404, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
      0.1923077 = coord(5/26)
    
    Abstract
    Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
    Content
    Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
    Isbn
    3-540-67307-5
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  15. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.01
    0.0147805335 = product of:
      0.076858774 = sum of:
        0.0154854655 = weight(_text_:und in 6043) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=6043,freq=30.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 6043, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
        0.0154854655 = weight(_text_:und in 6043) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=6043,freq=30.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 6043, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
        0.020600477 = weight(_text_:die in 6043) [ClassicSimilarity], result of:
          0.020600477 = score(doc=6043,freq=36.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.45795643 = fieldWeight in 6043, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
        0.0154854655 = weight(_text_:und in 6043) [ClassicSimilarity], result of:
          0.0154854655 = score(doc=6043,freq=30.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.3793607 = fieldWeight in 6043, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
        0.009801903 = weight(_text_:5 in 6043) [ClassicSimilarity], result of:
          0.009801903 = score(doc=6043,freq=4.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.18238121 = fieldWeight in 6043, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
      0.1923077 = coord(5/26)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und für Recherchezwecke bereitstellt. Die DIZ-Pressedatenbank (www.medienport.de) ermöglicht die browserbasierte Recherche für Redakteure und externe Kunden im Intra- und Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZ-Pressedatenbank enthält z. Zt. 7,8 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 durch Dokumentare inhaltlich erschlossen werden. Die Informationserschließung erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, die untereinander zum "DIZ-Wissensnetz" verlinkt sind. DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Qualitätssicherung der Dossiers auf. Im Zuge der Medienkrise mussten sich DIZ der Herausforderung stellen, bei sinkenden Lektoratskapazitäten die Qualität der Informationserschließung im Input zu erhalten. Auf der Outputseite gilt es, eine anspruchsvolle Zielgruppe - u.a. die Redakteure der Süddeutschen Zeitung - passgenau und zeitnah mit den Informationen zu versorgen, die sie für ihre tägliche Arbeit benötigt. Bezogen auf die Ausgangssituation in der Dokumentation der Süddeutschen Zeitung identifizierte DIZ drei Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: - (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) - Visualisierung des Wissensnetzes - Neue Retrievalmöglichkeiten (Ähnlichkeitssuche, Clustering) Im Bereich "Visualisierung" setzt DIZ auf den Net-Navigator von intelligent views, eine interaktive Visualisierung allgemeiner Graphen, basierend auf einem physikalischen Modell. In den Bereichen automatische Klassifizierung, Ähnlichkeitssuche und Clustering hat DIZ sich für das Produkt nextBot der Firma Brainbot entschieden.
    Imprint
    Hannover : ASpB / Sektion 5 im DBV
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  16. Gnoli, C.; Pusterla, L.; Bendiscioli, A.; Recinella, C.: Classification for collections mapping and query expansion (2016) 0.01
    0.014063388 = product of:
      0.07312962 = sum of:
        0.015683282 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3102,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.015683282 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3102,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.015683282 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3102,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.015683282 = weight(_text_:23 in 3102) [ClassicSimilarity], result of:
          0.015683282 = score(doc=3102,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.23759183 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
        0.010396489 = weight(_text_:5 in 3102) [ClassicSimilarity], result of:
          0.010396489 = score(doc=3102,freq=2.0), product of:
            0.05374404 = queryWeight, product of:
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.018417481 = queryNorm
            0.19344449 = fieldWeight in 3102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9180994 = idf(docFreq=6494, maxDocs=44218)
              0.046875 = fieldNorm(doc=3102)
      0.1923077 = coord(5/26)
    
    Pages
    S.23-31
    Source
    Proceedings of the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016) co-located with the 20th International Conference on Theory and Practice of Digital Libraries 2016 (TPDL 2016), Hannover, Germany, September 9, 2016. Edi. by Philipp Mayr et al. [http://ceur-ws.org/Vol-1676/=urn:nbn:de:0074-1676-5]
  17. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.01
    0.013663843 = product of:
      0.071051985 = sum of:
        0.009995825 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.009995825 = score(doc=566,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.009995825 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.009995825 = score(doc=566,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.020130169 = weight(_text_:die in 566) [ClassicSimilarity], result of:
          0.020130169 = score(doc=566,freq=22.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.44750127 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.009995825 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.009995825 = score(doc=566,freq=8.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.02093434 = weight(_text_:art in 566) [ClassicSimilarity], result of:
          0.02093434 = score(doc=566,freq=2.0), product of:
            0.08354246 = queryWeight, product of:
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.018417481 = queryNorm
            0.25058323 = fieldWeight in 566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5360413 = idf(docFreq=1287, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.1923077 = coord(5/26)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  18. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.01
    0.013318682 = product of:
      0.06925715 = sum of:
        0.017139269 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4324,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.017139269 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4324,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.0120169455 = weight(_text_:die in 4324) [ClassicSimilarity], result of:
          0.0120169455 = score(doc=4324,freq=4.0), product of:
            0.044983488 = queryWeight, product of:
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.018417481 = queryNorm
            0.26714125 = fieldWeight in 4324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.4424343 = idf(docFreq=10450, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.017139269 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.017139269 = score(doc=4324,freq=12.0), product of:
            0.0408199 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.018417481 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.0058224006 = product of:
          0.0174672 = sum of:
            0.0174672 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.0174672 = score(doc=4324,freq=2.0), product of:
                0.06449488 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.018417481 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.1923077 = coord(5/26)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  19. Walker, S.: Subject access in online catalogues (1991) 0.01
    0.012868335 = product of:
      0.083644174 = sum of:
        0.020911044 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5690,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
        0.020911044 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5690,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
        0.020911044 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5690,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
        0.020911044 = weight(_text_:23 in 5690) [ClassicSimilarity], result of:
          0.020911044 = score(doc=5690,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 5690, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5690)
      0.15384616 = coord(4/26)
    
    Pages
    S.23-33
  20. Bernier-Colborne, G.: Identifying semantic relations in a specialized corpus through distributional analysis of a cooccurrence tensor (2014) 0.01
    0.012868335 = product of:
      0.083644174 = sum of:
        0.020911044 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.020911044 = score(doc=2153,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
        0.020911044 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.020911044 = score(doc=2153,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
        0.020911044 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.020911044 = score(doc=2153,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
        0.020911044 = weight(_text_:23 in 2153) [ClassicSimilarity], result of:
          0.020911044 = score(doc=2153,freq=2.0), product of:
            0.06600935 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.018417481 = queryNorm
            0.31678912 = fieldWeight in 2153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=2153)
      0.15384616 = coord(4/26)
    
    Source
    Proceedings of the Third Joint Conference on Lexical and Computational Semantics (*SEM 2014), Dublin, Ireland, August 23-24 2014

Years

Languages

  • e 105
  • d 39

Types

  • a 126
  • el 14
  • m 9
  • r 5
  • x 2
  • s 1
  • More… Less…