Search (103 results, page 1 of 6)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. BOND: Assoziativ-OPAC SpiderSearch (2003) 0.04
    0.043596435 = product of:
      0.20345002 = sum of:
        0.055509515 = weight(_text_:medien in 1795) [ClassicSimilarity], result of:
          0.055509515 = score(doc=1795,freq=4.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.36770552 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.11525443 = weight(_text_:benutzer in 1795) [ClassicSimilarity], result of:
          0.11525443 = score(doc=1795,freq=8.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.63009024 = fieldWeight in 1795, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.03268608 = weight(_text_:web in 1795) [ClassicSimilarity], result of:
          0.03268608 = score(doc=1795,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 1795, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
      0.21428572 = coord(3/14)
    
    Abstract
    Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um eine innovative Neuheit, den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe, kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAL auf. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Erste Anwender bieten Ihren Lesern bereits dieses neue Sucherlebnis.
  2. AssoziativOPAC : SpiderSearch von BOND (2003) 0.04
    0.043596435 = product of:
      0.20345002 = sum of:
        0.055509515 = weight(_text_:medien in 2029) [ClassicSimilarity], result of:
          0.055509515 = score(doc=2029,freq=4.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.36770552 = fieldWeight in 2029, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.11525443 = weight(_text_:benutzer in 2029) [ClassicSimilarity], result of:
          0.11525443 = score(doc=2029,freq=8.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.63009024 = fieldWeight in 2029, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.03268608 = weight(_text_:web in 2029) [ClassicSimilarity], result of:
          0.03268608 = score(doc=2029,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 2029, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.21428572 = coord(3/14)
    
    Content
    "Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinnoder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart: SpiderSearch navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAC auf."
  3. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.03
    0.02776381 = product of:
      0.12956445 = sum of:
        0.039251152 = weight(_text_:medien in 2489) [ClassicSimilarity], result of:
          0.039251152 = score(doc=2489,freq=2.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.26000705 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.057627216 = weight(_text_:benutzer in 2489) [ClassicSimilarity], result of:
          0.057627216 = score(doc=2489,freq=2.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.31504512 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.03268608 = weight(_text_:web in 2489) [ClassicSimilarity], result of:
          0.03268608 = score(doc=2489,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 2489, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.21428572 = coord(3/14)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
  4. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.02
    0.022750152 = product of:
      0.106167376 = sum of:
        0.035931468 = weight(_text_:open in 4599) [ClassicSimilarity], result of:
          0.035931468 = score(doc=4599,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.24876907 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.04354783 = weight(_text_:source in 4599) [ClassicSimilarity], result of:
          0.04354783 = score(doc=4599,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.27386856 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.026688073 = weight(_text_:web in 4599) [ClassicSimilarity], result of:
          0.026688073 = score(doc=4599,freq=4.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.25496176 = fieldWeight in 4599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.21428572 = coord(3/14)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  5. Smith, D.A.; Shadbolt, N.R.: FacetOntology : expressive descriptions of facets in the Semantic Web (2012) 0.01
    0.013467431 = product of:
      0.09427201 = sum of:
        0.06158593 = weight(_text_:source in 2208) [ClassicSimilarity], result of:
          0.06158593 = score(doc=2208,freq=4.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.38730863 = fieldWeight in 2208, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2208)
        0.03268608 = weight(_text_:web in 2208) [ClassicSimilarity], result of:
          0.03268608 = score(doc=2208,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.3122631 = fieldWeight in 2208, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2208)
      0.14285715 = coord(2/14)
    
    Abstract
    The formal structure of the information on the Semantic Web lends itself to faceted browsing, an information retrieval method where users can filter results based on the values of properties ("facets"). Numerous faceted browsers have been created to browse RDF and Linked Data, but these systems use their own ontologies for defining how data is queried to populate their facets. Since the source data is the same format across these systems (specifically, RDF), we can unify the different methods of describing how to quer the underlying data, to enable compatibility across systems, and provide an extensible base ontology for future systems. To this end, we present FacetOntology, an ontology that defines how to query data to form a faceted browser, and a number of transformations and filters that can be applied to data before it is shown to users. FacetOntology overcomes limitations in the expressivity of existing work, by enabling the full expressivity of SPARQL when selecting data for facets. By applying a FacetOntology definition to data, a set of facets are specified, each with queries and filters to source RDF data, which enables faceted browsing systems to be created using that RDF data.
    Theme
    Semantic Web
  6. Brambilla, M.; Ceri, S.: Designing exploratory search applications upon Web data sources (2012) 0.01
    0.013138523 = product of:
      0.09196966 = sum of:
        0.049268745 = weight(_text_:source in 428) [ClassicSimilarity], result of:
          0.049268745 = score(doc=428,freq=4.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.3098469 = fieldWeight in 428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.03125 = fieldNorm(doc=428)
        0.042700917 = weight(_text_:web in 428) [ClassicSimilarity], result of:
          0.042700917 = score(doc=428,freq=16.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.4079388 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=428)
      0.14285715 = coord(2/14)
    
    Abstract
    Search is the preferred method to access information in today's computing systems. The Web, accessed through search engines, is universally recognized as the source for answering users' information needs. However, offering a link to a Web page does not cover all information needs. Even simple problems, such as "Which theater offers an at least three-stars action movie in London close to a good Italian restaurant," can only be solved by searching the Web multiple times, e.g., by extracting a list of the recent action movies filtered by ranking, then looking for movie theaters, then looking for Italian restaurants close to them. While search engines hint to useful information, the user's brain is the fundamental platform for information integration. An important trend is the availability of new, specialized data sources-the so-called "long tail" of the Web of data. Such carefully collected and curated data sources can be much more valuable than information currently available in Web pages; however, many sources remain hidden or insulated, in the lack of software solutions for bringing them to surface and making them usable in the search context. A new class of tailor-made systems, designed to satisfy the needs of users with specific aims, will support the publishing and integration of data sources for vertical domains; the user will be able to select sources based on individual or collective trust, and systems will be able to route queries to such sources and to provide easyto-use interfaces for combining them within search strategies, at the same time, rewarding the data source owners for each contribution to effective search. Efforts such as Google's Fusion Tables show that the technology for bringing hidden data sources to surface is feasible.
    Source
    Semantic search over the Web. Eds.: R. De Virgilio, et al
    Theme
    Semantic Web
  7. ALEPH 500 mit multilingualem Thesaurus (2003) 0.01
    0.013114034 = product of:
      0.09179824 = sum of:
        0.06915266 = weight(_text_:benutzer in 1639) [ClassicSimilarity], result of:
          0.06915266 = score(doc=1639,freq=2.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.37805414 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.02264558 = weight(_text_:web in 1639) [ClassicSimilarity], result of:
          0.02264558 = score(doc=1639,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
      0.14285715 = coord(2/14)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  8. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.01
    0.013114034 = product of:
      0.09179824 = sum of:
        0.06915266 = weight(_text_:benutzer in 1640) [ClassicSimilarity], result of:
          0.06915266 = score(doc=1640,freq=2.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.37805414 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.02264558 = weight(_text_:web in 1640) [ClassicSimilarity], result of:
          0.02264558 = score(doc=1640,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
      0.14285715 = coord(2/14)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  9. Khan, M.S.; Khor, S.: Enhanced Web document retrieval using automatic query expansion (2004) 0.01
    0.01306867 = product of:
      0.09148069 = sum of:
        0.052257393 = weight(_text_:source in 2091) [ClassicSimilarity], result of:
          0.052257393 = score(doc=2091,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.32864225 = fieldWeight in 2091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.046875 = fieldNorm(doc=2091)
        0.0392233 = weight(_text_:web in 2091) [ClassicSimilarity], result of:
          0.0392233 = score(doc=2091,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.37471575 = fieldWeight in 2091, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2091)
      0.14285715 = coord(2/14)
    
    Abstract
    The ever growing popularity of the Internet as a source of information, coupled with the accompanying growth in the number of documents made available through the World Wide Web, is leading to an increasing demand for more efficient and accurate information retrieval tools. Numerous techniques have been proposed and tried for improving the effectiveness of searching the World Wide Web for documents relevant to a given topic of interest. The specification of appropriate keywords and phrases by the user is crucial for the successful execution of a query as measured by the relevance of documents retrieved. Lack of users' knowledge an the search topic and their changing information needs often make it difficult for them to find suitable keywords or phrases for a query. This results in searches that fail to cover all likely aspects of the topic of interest. We describe a scheme that attempts to remedy this situation by automatically expanding the user query through the analysis of initially retrieved documents. Experimental results to demonstrate the effectiveness of the query expansion scheure are presented.
  10. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.012443775 = product of:
      0.08710642 = sum of:
        0.060977723 = weight(_text_:open in 2133) [ClassicSimilarity], result of:
          0.060977723 = score(doc=2133,freq=16.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.42217514 = fieldWeight in 2133, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.026128696 = weight(_text_:source in 2133) [ClassicSimilarity], result of:
          0.026128696 = score(doc=2133,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.16432112 = fieldWeight in 2133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.14285715 = coord(2/14)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  11. Zenz, G.; Zhou, X.; Minack, E.; Siberski, W.; Nejdl, W.: Interactive query construction for keyword search on the Semantic Web (2012) 0.01
    0.011612925 = product of:
      0.08129047 = sum of:
        0.04354783 = weight(_text_:source in 430) [ClassicSimilarity], result of:
          0.04354783 = score(doc=430,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.27386856 = fieldWeight in 430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0390625 = fieldNorm(doc=430)
        0.037742633 = weight(_text_:web in 430) [ClassicSimilarity], result of:
          0.037742633 = score(doc=430,freq=8.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.36057037 = fieldWeight in 430, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=430)
      0.14285715 = coord(2/14)
    
    Abstract
    With the advance of the semantic Web, increasing amounts of data are available in a structured and machine-understandable form. This opens opportunities for users to employ semantic queries instead of simple keyword-based ones to accurately express the information need. However, constructing semantic queries is a demanding task for human users [11]. To compose a valid semantic query, a user has to (1) master a query language (e.g., SPARQL) and (2) acquire sufficient knowledge about the ontology or the schema of the data source. While there are systems which support this task with visual tools [21, 26] or natural language interfaces [3, 13, 14, 18], the process of query construction can still be complex and time consuming. According to [24], users prefer keyword search, and struggle with the construction of semantic queries although being supported with a natural language interface. Several keyword search approaches have already been proposed to ease information seeking on semantic data [16, 32, 35] or databases [1, 31]. However, keyword queries lack the expressivity to precisely describe the user's intent. As a result, ranking can at best put query intentions of the majority on top, making it impossible to take the intentions of all users into consideration.
    Source
    Semantic search over the Web. Eds.: R. De Virgilio, et al
    Theme
    Semantic Web
  12. Faaborg, A.; Lagoze, C.: Semantic browsing (2003) 0.01
    0.011417833 = product of:
      0.07992483 = sum of:
        0.06471514 = weight(_text_:web in 1026) [ClassicSimilarity], result of:
          0.06471514 = score(doc=1026,freq=12.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.6182494 = fieldWeight in 1026, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1026)
        0.015209687 = product of:
          0.030419374 = sum of:
            0.030419374 = weight(_text_:22 in 1026) [ClassicSimilarity], result of:
              0.030419374 = score(doc=1026,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.2708308 = fieldWeight in 1026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1026)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    We have created software applications that allow users to both author and use Semantic Web metadata. To create and use a layer of semantic content on top of the existing Web, we have (1) implemented a user interface that expedites the task of attributing metadata to resources on the Web, and (2) augmented a Web browser to leverage this semantic metadata to provide relevant information and tasks to the user. This project provides a framework for annotating and reorganizing existing files, pages, and sites on the Web that is similar to Vannevar Bushrsquos original concepts of trail blazing and associative indexing.
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
    Theme
    Semantic Web
  13. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.01
    0.010928362 = product of:
      0.07649853 = sum of:
        0.057627216 = weight(_text_:benutzer in 2432) [ClassicSimilarity], result of:
          0.057627216 = score(doc=2432,freq=2.0), product of:
            0.18291734 = queryWeight, product of:
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0320743 = queryNorm
            0.31504512 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7029257 = idf(docFreq=400, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.018871317 = weight(_text_:web in 2432) [ClassicSimilarity], result of:
          0.018871317 = score(doc=2432,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.18028519 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.14285715 = coord(2/14)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  14. Layfield, C.; Azzopardi, J,; Staff, C.: Experiments with document retrieval from small text collections using Latent Semantic Analysis or term similarity with query coordination and automatic relevance feedback (2017) 0.01
    0.010473465 = product of:
      0.07331425 = sum of:
        0.015097054 = weight(_text_:web in 3478) [ClassicSimilarity], result of:
          0.015097054 = score(doc=3478,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.14422815 = fieldWeight in 3478, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=3478)
        0.058217194 = weight(_text_:log in 3478) [ClassicSimilarity], result of:
          0.058217194 = score(doc=3478,freq=2.0), product of:
            0.205552 = queryWeight, product of:
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.0320743 = queryNorm
            0.2832237 = fieldWeight in 3478, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4086204 = idf(docFreq=197, maxDocs=44218)
              0.03125 = fieldNorm(doc=3478)
      0.14285715 = coord(2/14)
    
    Abstract
    One of the problems faced by users of databases containing textual documents is the difficulty in retrieving relevant results due to the diverse vocabulary used in queries and contained in relevant documents, especially when there are only a small number of relevant documents. This problem is known as the Vocabulary Gap. The PIKES team have constructed a small test collection of 331 articles extracted from a blog and a Gold Standard for 35 queries selected from the blog's search log so the results of different approaches to semantic search can be compared. So far, prior approaches include recognising Named Entities in documents and queries, and relations including temporal relations, and represent them as `semantic layers' in a retrieval system index. In this work, we take two different approaches that do not involve Named Entity Recognition. In the first approach, we process an unannotated version of the PIKES document collection using Latent Semantic Analysis and use a combination of query coordination and automatic relevance feedback with which we outperform prior work. However, this approach is highly dependent on the underlying collection, and is not necessarily scalable to massive collections. In our second approach, we use an LSA Model generated by SEMILAR from a Wikipedia dump to generate a Term Similarity Matrix (TSM). We automatically expand the queries in the PIKES test collection with related terms from the TSM and submit them to a term-by-document matrix derived by indexing the PIKES collection using the Vector Space Model. Coupled with a combination of query coordination and automatic relevance feedback we also outperform prior work with this approach. The advantage of the second approach is that it is independent of the underlying document collection.
    Series
    Information Systems and Applications, incl. Internet/Web, and HCI; 10151
  15. Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006) 0.01
    0.009963852 = product of:
      0.06974696 = sum of:
        0.047101382 = weight(_text_:medien in 6047) [ClassicSimilarity], result of:
          0.047101382 = score(doc=6047,freq=2.0), product of:
            0.15096188 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0320743 = queryNorm
            0.31200847 = fieldWeight in 6047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.02264558 = weight(_text_:web in 6047) [ClassicSimilarity], result of:
          0.02264558 = score(doc=6047,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 6047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
      0.14285715 = coord(2/14)
    
    Abstract
    In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
  16. Narock, T.; Zhou, L.; Yoon, V.: Semantic similarity of ontology instances using polarity mining (2013) 0.01
    0.009394763 = product of:
      0.06576334 = sum of:
        0.043117758 = weight(_text_:open in 620) [ClassicSimilarity], result of:
          0.043117758 = score(doc=620,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.2985229 = fieldWeight in 620, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.046875 = fieldNorm(doc=620)
        0.02264558 = weight(_text_:web in 620) [ClassicSimilarity], result of:
          0.02264558 = score(doc=620,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.21634221 = fieldWeight in 620, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=620)
      0.14285715 = coord(2/14)
    
    Abstract
    Semantic similarity is vital to many areas, such as information retrieval. Various methods have been proposed with a focus on comparing unstructured text documents. Several of these have been enhanced with ontology; however, they have not been applied to ontology instances. With the growth in ontology instance data published online through, for example, Linked Open Data, there is an increasing need to apply semantic similarity to ontology instances. Drawing on ontology-supported polarity mining (OSPM), we propose an algorithm that enhances the computation of semantic similarity with polarity mining techniques. The algorithm is evaluated with online customer review data. The experimental results show that the proposed algorithm outperforms the baseline algorithm in multiple settings.
    Theme
    Semantic Web
  17. Klas, C.-P.; Fuhr, N.; Schaefer, A.: Evaluating strategic support for information access in the DAFFODIL system (2004) 0.01
    0.0093277525 = product of:
      0.065294266 = sum of:
        0.052257393 = weight(_text_:source in 2419) [ClassicSimilarity], result of:
          0.052257393 = score(doc=2419,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.32864225 = fieldWeight in 2419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.046875 = fieldNorm(doc=2419)
        0.013036874 = product of:
          0.026073748 = sum of:
            0.026073748 = weight(_text_:22 in 2419) [ClassicSimilarity], result of:
              0.026073748 = score(doc=2419,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.23214069 = fieldWeight in 2419, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2419)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    The digital library system Daffodil is targeted at strategic support of users during the information search process. For searching, exploring and managing digital library objects it provides user-customisable information seeking patterns over a federation of heterogeneous digital libraries. In this paper evaluation results with respect to retrieval effectiveness, efficiency and user satisfaction are presented. The analysis focuses on strategic support for the scientific work-flow. Daffodil supports the whole work-flow, from data source selection over information seeking to the representation, organisation and reuse of information. By embedding high level search functionality into the scientific work-flow, the user experiences better strategic system support due to a more systematic work process. These ideas have been implemented in Daffodil followed by a qualitative evaluation. The evaluation has been conducted with 28 participants, ranging from information seeking novices to experts. The results are promising, as they support the chosen model.
    Date
    16.11.2008 16:22:48
  18. Kruschwitz, U.; AI-Bakour, H.: Users want more sophisticated search assistants : results of a task-based evaluation (2005) 0.01
    0.008917022 = product of:
      0.062419146 = sum of:
        0.04354783 = weight(_text_:source in 4575) [ClassicSimilarity], result of:
          0.04354783 = score(doc=4575,freq=2.0), product of:
            0.15900996 = queryWeight, product of:
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0320743 = queryNorm
            0.27386856 = fieldWeight in 4575, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.9575505 = idf(docFreq=844, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4575)
        0.018871317 = weight(_text_:web in 4575) [ClassicSimilarity], result of:
          0.018871317 = score(doc=4575,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.18028519 = fieldWeight in 4575, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4575)
      0.14285715 = coord(2/14)
    
    Abstract
    The Web provides a massive knowledge source, as do intranets and other electronic document collections. However, much of that knowledge is encoded implicitly and cannot be applied directly without processing into some more appropriate structures. Searching, browsing, question answering, for example, could all benefit from domain-specific knowledge contained in the documents, and in applications such as simple search we do not actually need very "deep" knowledge structures such as ontologies, but we can get a long way with a model of the domain that consists of term hierarchies. We combine domain knowledge automatically acquired by exploiting the documents' markup structure with knowledge extracted an the fly to assist a user with ad hoc search requests. Such a search system can suggest query modification options derived from the actual data and thus guide a user through the space of documents. This article gives a detailed account of a task-based evaluation that compares a search system that uses the outlined domain knowledge with a standard search system. We found that users do use the query modification suggestions proposed by the system. The main conclusion we can draw from this evaluation, however, is that users prefer a system that can suggest query modifications over a standard search engine, which simply presents a ranked list of documents. Most interestingly, we observe this user preference despite the fact that the baseline system even performs slightly better under certain criteria.
  19. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.01
    0.00871003 = product of:
      0.060970202 = sum of:
        0.045760516 = weight(_text_:web in 1319) [ClassicSimilarity], result of:
          0.045760516 = score(doc=1319,freq=6.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.43716836 = fieldWeight in 1319, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.015209687 = product of:
          0.030419374 = sum of:
            0.030419374 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.030419374 = score(doc=1319,freq=2.0), product of:
                0.11231873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0320743 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Keyword based querying has been an immediate and efficient way to specify and retrieve related information that the user inquired. However, conventional document ranking based on an automatic assessment of document relevance to the query may not be the best approach when little information is given. Proposes an idea to integrate 2 existing techniques, query expansion and relevance feedback to achieve a concept-based information search for the Web
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue devoted to the Proceedings of the 7th International World Wide Web Conference, held 14-18 April 1998, Brisbane, Australia
  20. Xamena, E.; Brignole, N.B.; Maguitman, A.G.: ¬A study of relevance propagation in large topic ontologies (2013) 0.01
    0.0078289695 = product of:
      0.054802783 = sum of:
        0.035931468 = weight(_text_:open in 1105) [ClassicSimilarity], result of:
          0.035931468 = score(doc=1105,freq=2.0), product of:
            0.14443703 = queryWeight, product of:
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0320743 = queryNorm
            0.24876907 = fieldWeight in 1105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.5032015 = idf(docFreq=1330, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1105)
        0.018871317 = weight(_text_:web in 1105) [ClassicSimilarity], result of:
          0.018871317 = score(doc=1105,freq=2.0), product of:
            0.10467481 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0320743 = queryNorm
            0.18028519 = fieldWeight in 1105, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1105)
      0.14285715 = coord(2/14)
    
    Abstract
    Topic ontologies or web directories consist of large collections of links to websites, arranged by topic in different categories. The structure of these ontologies is typically not flat because there are hierarchical and nonhierarchical relationships among topics. As a consequence, websites classified under a certain topic may be relevant to other topics. Although some of these relevance relations are explicit, most of them must be discovered by an analysis of the structure of the ontologies. This article proposes a family of models of relevance propagation in topic ontologies. An efficient computational framework is described and used to compute nine different models for a portion of the Open Directory Project graph consisting of more than half a million nodes and approximately 1.5 million edges of different types. After performing a quantitative analysis, a user study was carried out to compare the most promising models. It was found that some general difficulties rule out the possibility of defining flawless models of relevance propagation that only take into account structural aspects of an ontology. However, there is a clear indication that including transitive relations induced by the nonhierarchical components of the ontology results in relevance propagation models that are superior to more basic approaches.

Years

Languages

  • e 80
  • d 20
  • chi 1
  • f 1
  • More… Less…

Types

  • a 85
  • el 14
  • m 11
  • r 2
  • p 1
  • s 1
  • x 1
  • More… Less…