Search (101 results, page 1 of 6)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.06
    0.062943295 = product of:
      0.18882988 = sum of:
        0.10954097 = weight(_text_:281 in 1852) [ClassicSimilarity], result of:
          0.10954097 = score(doc=1852,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.51309484 = fieldWeight in 1852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.03916923 = weight(_text_:software in 1852) [ClassicSimilarity], result of:
          0.03916923 = score(doc=1852,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.30681872 = fieldWeight in 1852, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.029946523 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.029946523 = score(doc=1852,freq=12.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.010173167 = product of:
          0.0305195 = sum of:
            0.0305195 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.0305195 = score(doc=1852,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
      0.33333334 = coord(4/12)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  2. Weiermann, S.L.: Semantische Netze und Begriffsdeskription in der Wissensrepräsentation (2000) 0.06
    0.05950383 = product of:
      0.23801532 = sum of:
        0.09163554 = weight(_text_:informatik in 3001) [ClassicSimilarity], result of:
          0.09163554 = score(doc=3001,freq=4.0), product of:
            0.16419695 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032179873 = queryNorm
            0.55808306 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.024451233 = weight(_text_:und in 3001) [ClassicSimilarity], result of:
          0.024451233 = score(doc=3001,freq=8.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.34282678 = fieldWeight in 3001, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.12192856 = weight(_text_:einzelne in 3001) [ClassicSimilarity], result of:
          0.12192856 = score(doc=3001,freq=4.0), product of:
            0.18940257 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.032179873 = queryNorm
            0.64375347 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
      0.25 = coord(3/12)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt (in Kürze): Einleitung. Wissensrepräsentation. Semantische Netze. Wissensrepräsentationssysteme. Empirische Analyse und Systemerweiterungen.
    RSWK
    FILCOM <Programm> / Definition / Vererbung <Informatik>
    Subject
    FILCOM <Programm> / Definition / Vererbung <Informatik>
  3. AssoziativOPAC : SpiderSearch von BOND (2003) 0.03
    0.032730263 = product of:
      0.13092105 = sum of:
        0.078243546 = weight(_text_:281 in 2029) [ClassicSimilarity], result of:
          0.078243546 = score(doc=2029,freq=2.0), product of:
            0.21349068 = queryWeight, product of:
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.032179873 = queryNorm
            0.36649632 = fieldWeight in 2029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.634292 = idf(docFreq=157, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.027978022 = weight(_text_:software in 2029) [ClassicSimilarity], result of:
          0.027978022 = score(doc=2029,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.21915624 = fieldWeight in 2029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.024699474 = weight(_text_:und in 2029) [ClassicSimilarity], result of:
          0.024699474 = score(doc=2029,freq=16.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.34630734 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.25 = coord(3/12)
    
    Content
    "Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinnoder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart: SpiderSearch navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAC auf."
    Source
    B.I.T.online. 6(2003) H.3, S.281
  4. Rudolph, S.; Hemmje, M.: Visualisierung von Thesauri zur interaktiven Unterstüzung von visuellen Anfragen an Textdatenbanken (1994) 0.02
    0.024237735 = product of:
      0.14542641 = sum of:
        0.015125278 = weight(_text_:und in 2382) [ClassicSimilarity], result of:
          0.015125278 = score(doc=2382,freq=6.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.21206908 = fieldWeight in 2382, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2382)
        0.13030113 = weight(_text_:benutzerschnittstellen in 2382) [ClassicSimilarity], result of:
          0.13030113 = score(doc=2382,freq=2.0), product of:
            0.27550453 = queryWeight, product of:
              8.561393 = idf(docFreq=22, maxDocs=44218)
              0.032179873 = queryNorm
            0.47295457 = fieldWeight in 2382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.561393 = idf(docFreq=22, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2382)
      0.16666667 = coord(2/12)
    
    Abstract
    In der folgenden Studie wird eine Komponente für eine visuelle Benutzerschnittstelle zu Textdatenbanken entworfen. Mit Hilfe einer Terminologievisualisierung wird dem Benutzer eine Hilfestellung bei der Relevanzbewertung von Dokumenten und bei der Erweiterung seiner visuellen Anfrage an das Retrieval-System gegeben. Dazu werden zuerst die grundlegenden Information-Retrieval-Modelle eingehender vorgestellt, d.h., generelle Retrieval-Modelle, Retrievaloperationen und spezielle Retrieval-Modelle wie Text-Retrieval werden erläutert. Die Funktionalität eines Text-Retrieval-Systems wird vorgestellt. Darüber hinaus werden bereits existierende Implementierungen visueller Information-Retrieval-Benutzerschnittstellen vorgestellt. Im weiteren Verlauf der Arbeit werden mögliche Visualisierungen der mit Hilfe eines Text-Retrieval-Systems gefundenen Dokumente aufgezeigt. Es werden mehrere Vorschläge zur Visualisierung von Thesauri diskutiert. Es wird gezeigt, wie neuronale Netze zur Kartierung eines Eingabebereiches benutzt werden können. Klassifikationsebenen einer objekt-orientierten Annäherung eines Information-Retrieval-Systems werden vorgestellt. In diesem Zusammenhang werden auch die Eigenschaften von Thesauri sowie die Architektur und Funktion eines Parsersystems erläutert. Mit diesen Voraussetzung wird die Implementierung einer visuellen Terminologierunterstützung realisiert. Abschließend wird ein Fazit zur vorgestellten Realisierung basierend auf einem Drei-Schichten-Modell von [Agosti et al. 1990] gezogen.
  5. Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000) 0.02
    0.021275306 = product of:
      0.085101224 = sum of:
        0.046282936 = weight(_text_:informatik in 1404) [ClassicSimilarity], result of:
          0.046282936 = score(doc=1404,freq=2.0), product of:
            0.16419695 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032179873 = queryNorm
            0.2818745 = fieldWeight in 1404, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.031485777 = weight(_text_:und in 1404) [ClassicSimilarity], result of:
          0.031485777 = score(doc=1404,freq=26.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.441457 = fieldWeight in 1404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.007332509 = product of:
          0.021997526 = sum of:
            0.021997526 = weight(_text_:29 in 1404) [ClassicSimilarity], result of:
              0.021997526 = score(doc=1404,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.19432661 = fieldWeight in 1404, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1404)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
    Content
    Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
    Footnote
    Rez.in: KO 29(2002) no.2, S.103-104 (G.J.A. Riesthuis)
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.02
    0.019822229 = product of:
      0.079288915 = sum of:
        0.03916923 = weight(_text_:software in 4324) [ClassicSimilarity], result of:
          0.03916923 = score(doc=4324,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.30681872 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.029946523 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.029946523 = score(doc=4324,freq=12.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.010173167 = product of:
          0.0305195 = sum of:
            0.0305195 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.0305195 = score(doc=4324,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  7. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.01
    0.0147597 = product of:
      0.0885582 = sum of:
        0.065453954 = weight(_text_:informatik in 2380) [ClassicSimilarity], result of:
          0.065453954 = score(doc=2380,freq=4.0), product of:
            0.16419695 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032179873 = queryNorm
            0.39863077 = fieldWeight in 2380, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
        0.023104243 = weight(_text_:und in 2380) [ClassicSimilarity], result of:
          0.023104243 = score(doc=2380,freq=14.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.32394084 = fieldWeight in 2380, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.16666667 = coord(2/12)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    Footnote
    Masterthesis zur Erlangung des akademischen Grades Master of Science (M.Sc.) vorgelegt an der Fachhochschule Köln / Fakultät für Informatik und Ingenieurswissenschaften im Studiengang Medieninformatik.
    Imprint
    Gummersbach : Fakultät für Informatik und Ingenieurswissenschaften
  8. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.01
    0.013828932 = product of:
      0.08297359 = sum of:
        0.021390373 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.021390373 = score(doc=2432,freq=12.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.06158322 = weight(_text_:einzelne in 2432) [ClassicSimilarity], result of:
          0.06158322 = score(doc=2432,freq=2.0), product of:
            0.18940257 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.032179873 = queryNorm
            0.3251446 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.16666667 = coord(2/12)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  9. Gillitzer, B.: Yewno (2017) 0.01
    0.0133460695 = product of:
      0.053384278 = sum of:
        0.022382418 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
          0.022382418 = score(doc=3447,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.17532499 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.025188621 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.025188621 = score(doc=3447,freq=26.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0058132387 = product of:
          0.017439716 = sum of:
            0.017439716 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.017439716 = score(doc=3447,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.25 = coord(3/12)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  10. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.01
    0.011166304 = product of:
      0.066997826 = sum of:
        0.0400822 = weight(_text_:informatik in 42) [ClassicSimilarity], result of:
          0.0400822 = score(doc=42,freq=6.0), product of:
            0.16419695 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.032179873 = queryNorm
            0.24411051 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.026915628 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.026915628 = score(doc=42,freq=76.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.3773797 = fieldWeight in 42, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
      0.16666667 = coord(2/12)
    
    Classification
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
    Content
    Das Buch ist in die Abschnitte Invited Papers (1 Beitrag, 1 Abstract), Representing Context (3 Beiträge), Context and Relevance in Information Seeking (3), Context and Information (3), Contextualised Information Seeking (3), Agendas for Context (3), Context and Documents (2) und Workshops (2 Ankündigungstexte) gegliedert und enthält ein simples Autoren-, jedoch kein Sachregister. Die Autoren der Beiträge stammen mit einigen Ausnahmen (Italien, Frankreich, Russland) aus den angelsächsischen und skandinavischen Ländern.
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.100-103 (O. Oberhauser): "Dieses als Band 3507 der bekannten, seit 1973 erscheinenden Springer-Serie Lecture Notes in Computer Science (LNCS) publizierte Buch versammelt die Vorträge der 5. Tagung "Conceptions of Library and Information Science". CoLIS hat sich in den letzten anderthalb Jahrzehnten als internationales Forum für die Präsentation und Rezeption von Forschung auf den Fachgebieten Informatik und Informationswissenschaft etabliert. Auf die 1992 in Tampere (Finnland) anlässlich des damals 20jährigen Bestehens des dortigen Instituts für Informationswissenschaft abgehaltene erste Tagung folgten weitere in Kopenhagen (1996), Dubrovnik (1999) und Seattle, WA (2002). Die zuletzt an der Strathclyde University in Glasgow (2005) veranstaltete Konferenz war dem Thema "Context" im Rahmen der informationsbezogenen Forschung gewidmet, einem komplexen, dynamischen und multidimensionalen Begriff von grosser Bedeutung für das Verhalten und die Interaktion von Mensch und Maschine. . . .
    Am interessantesten und wichtigsten erschien mir der Grundsatzartikel von Peter Ingwersen und Kalervo Järvelin (Kopenhagen/Tampere), The sense of information: Understanding the cognitive conditional information concept in relation to information acquisition (S. 7-19). Hier versuchen die Autoren, den ursprünglich von Ingwersen1 vorgeschlagenen und damals ausschliesslich im Zusammenhang mit dem interaktiven Information Retrieval verwendeten Begriff "conditional cognitive information" anhand eines erweiterten Modells nicht nur auf das Gesamtgebiet von "information seeking and retrieval" (IS&R) auszuweiten, sondern auch auf den menschlichen Informationserwerb aus der Sinneswahrnehmung, wie z.B. im Alltag oder im Rahmen der wissenschaftlichen Erkenntnistätigkeit. Dabei werden auch alternative Informationsbegriffe sowie die Beziehung von Information und Bedeutung diskutiert. Einen ebenfalls auf Ingwersen zurückgehenden Ansatz thematisiert der Beitrag von Birger Larsen (Kopenhagen), indem er sich mit dessen vor über 10 Jahren veröffentlichten2 Principle of Polyrepresentation befasst. Dieses beruht auf der Hypothese, wonach die Überlappung zwischen unterschiedlichen kognitiven Repräsentationen - nämlich jenen der Situation des Informationssuchenden und der Dokumente - zur Reduktion der einer Retrievalsituation anhaftenden Unsicherheit und damit zur Verbesserung der Performance des IR-Systems genutzt werden könne. Das Prinzip stellt die Dokumente, ihre Autoren und Indexierer, aber auch die sie zugänglich machende IT-Lösung in einen umfassenden und kohärenten theoretischen Bezugsrahmen, der die benutzerorientierte Forschungsrichtung "Information-Seeking" mit der systemorientierten IR-Forschung zu integrieren trachtet. Auf der Basis theoretischer Überlegungen sowie der (wenigen) dazu vorliegenden empirischen Studien hält Larsen das Model, das von Ingwersen sowohl für "exact match-IR" als auch für "best match-IR" intendiert war, allerdings schon in seinen Grundzügen für "Boolean" (d.h. "exact match"-orientiert) und schlägt ein "polyrepresentation continuum" als Verbesserungsmöglichkeit vor.
    Mehrere Beiträge befassen sich mit dem Problem der Relevanz. Erica Cosijn und Theo Bothma (Pretoria) argumentieren, dass für das Benutzerverhalten neben der thematischen Relevanz auch verschiedene andere Relevanzdimensionen eine Rolle spielen und schlagen auf der Basis eines (abermals auf Ingwersen zurückgehenden) erweiterten Relevanzmodells vor, dass IR-Systeme die Möglichkeit zur Abgabe auch kognitiver, situativer und sozio-kognitiver Relevanzurteile bieten sollten. Elaine Toms et al. (Kanada) berichten von einer Studie, in der versucht wurde, die schon vor 30 Jahren von Tefko Saracevic3 erstellten fünf Relevanzdimensionen (kognitiv, motivational, situativ, thematisch und algorithmisch) zu operationalisieren und anhand von Recherchen mit einer Web-Suchmaschine zu untersuchen. Die Ergebnisse zeigten, dass sich diese fünf Dimensionen in drei Typen vereinen lassen, die Benutzer, System und Aufgabe repräsentieren. Von einer völlig anderen Seite nähern sich Olof Sundin und Jenny Johannison (Boras, Schweden) der Relevanzthematik, indem sie einen kommunikationsorientierten, neo-pragmatistischen Ansatz (nach Richard Rorty) wählen, um Informationssuche und Relevanz zu analysieren, und dabei auch auf das Werk von Michel Foucault zurückgreifen. Weitere interessante Artikel befassen sich mit Bradford's Law of Scattering (Hjørland & Nicolaisen), Information Sharing and Timing (Widén-Wulff & Davenport), Annotations as Context for Searching Documents (Agosti & Ferro), sowie dem Nutzen von neuen Informationsquellen wie Web Links, Newsgroups und Blogs für die sozial- und informationswissenschaftliche Forschung (Thelwall & Wouters). In Summe liegt hier ein interessantes und anspruchsvolles Buch vor - inhaltlich natürlich nicht gerade einheitlich und geschlossen, doch dies darf man bei einem Konferenzband ohnedies nicht erwarten. Manche der abgedruckten Beiträge sind sicher nicht einfach zu lesen, lohnen aber die Mühe. Auch für Praktiker aus Bibliothek und Information ist einiges dabei, sofern sie sich für die wissenschaftliche Basis ihrer Tätigkeit interessieren. Fachlich einschlägige Spezial- und grössere Allgemeinbibliotheken sollten das Werk daher unbedingt führen.
    Context: Nature, Impact and Role ist ein typischer LNCS-Softcover-Band in sauberem TeX-Design und mutet mit knapp 50 Euro zwar nicht als wohlfeil an, liegt aber angesichts heutiger Buchpreise im Rahmen. Die Zahl der Tippfehler hält sich in Grenzen, ist jedoch gelegentlich peinlich (z.B. wenn man auf S. 2, noch dazu im Fettdruck, "Tractaus" anstelle von "Tractatus" lesen muss). Als Kuriosum am Rande sei erwähnt, dass die einleitend abgedruckte Namensliste des CoLIS-Programmkomitees, immerhin rund 50 Personen, vom Computer fein säuberlich sortiert wurde - dies allerdings nach dem Alphabet der Vornamen der Komiteemitglieder, was offenbar weder den Herausgebern noch dem Verlag aufgefallen ist."
    RVK
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
  11. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.009628969 = product of:
      0.057773814 = sum of:
        0.029075615 = weight(_text_:software in 2133) [ClassicSimilarity], result of:
          0.029075615 = score(doc=2133,freq=6.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.22775385 = fieldWeight in 2133, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.028698197 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.028698197 = score(doc=2133,freq=60.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.16666667 = coord(2/12)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  12. BOND: Assoziativ-OPAC SpiderSearch (2003) 0.01
    0.009029295 = product of:
      0.05417577 = sum of:
        0.027978022 = weight(_text_:software in 1795) [ClassicSimilarity], result of:
          0.027978022 = score(doc=1795,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.21915624 = fieldWeight in 1795, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.026197748 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.026197748 = score(doc=1795,freq=18.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.3673144 = fieldWeight in 1795, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
      0.16666667 = coord(2/12)
    
    Abstract
    Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um eine innovative Neuheit, den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe, kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAL auf. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Erste Anwender bieten Ihren Lesern bereits dieses neue Sucherlebnis.
  13. Faaborg, A.; Lagoze, C.: Semantic browsing (2003) 0.01
    0.008223733 = product of:
      0.049342398 = sum of:
        0.03916923 = weight(_text_:software in 1026) [ClassicSimilarity], result of:
          0.03916923 = score(doc=1026,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.30681872 = fieldWeight in 1026, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1026)
        0.010173167 = product of:
          0.0305195 = sum of:
            0.0305195 = weight(_text_:22 in 1026) [ClassicSimilarity], result of:
              0.0305195 = score(doc=1026,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.2708308 = fieldWeight in 1026, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1026)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    We have created software applications that allow users to both author and use Semantic Web metadata. To create and use a layer of semantic content on top of the existing Web, we have (1) implemented a user interface that expedites the task of attributing metadata to resources on the Web, and (2) augmented a Web browser to leverage this semantic metadata to provide relevant information and tasks to the user. This project provides a framework for annotating and reorganizing existing files, pages, and sites on the Web that is similar to Vannevar Bushrsquos original concepts of trail blazing and associative indexing.
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  14. Shiri, A.A.; Revie, C.; Chowdhury, G.: Thesaurus-enhanced search interfaces (2002) 0.01
    0.0064260373 = product of:
      0.038556222 = sum of:
        0.0209582 = weight(_text_:und in 3807) [ClassicSimilarity], result of:
          0.0209582 = score(doc=3807,freq=2.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.29385152 = fieldWeight in 3807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3807)
        0.017598022 = product of:
          0.05279406 = sum of:
            0.05279406 = weight(_text_:29 in 3807) [ClassicSimilarity], result of:
              0.05279406 = score(doc=3807,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.46638384 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3807)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Date
    18. 5.2002 17:29:00
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  15. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.01
    0.005988743 = product of:
      0.03593246 = sum of:
        0.024200445 = weight(_text_:und in 2245) [ClassicSimilarity], result of:
          0.024200445 = score(doc=2245,freq=6.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.33931053 = fieldWeight in 2245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2245)
        0.011732014 = product of:
          0.03519604 = sum of:
            0.03519604 = weight(_text_:29 in 2245) [ClassicSimilarity], result of:
              0.03519604 = score(doc=2245,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.31092256 = fieldWeight in 2245, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2245)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Dieser Artikel adressiert einen Randbereich des Wissensmanagements: die Schnittstelle zwischen Unternehmens-externen Informationen im Internet und den Leistungsprozessen eines Unternehmens. Diese Schnittstelle ist besonders für Unternehmen von Interesse, deren Leistungsprozesse von externen Informationen abhängen und die auf diese Prozesse angewiesen sind. Wir zeigen an zwei Fallbeispielen, dass die inhaltliche Filterung von Informationen beim Eintritt ins Unternehmen ein wichtiges Werkzeug darstellt, um daran anschließende Wissens- und Informationsmanagementprozesse effizient zu gestalten.
    Date
    29. 9.2015 18:56:44
  16. Shiri, A.A.; Revie, C.: Query expansion behavior within a thesaurus-enhanced search environment : a user-centered evaluation (2006) 0.01
    0.005874095 = product of:
      0.03524457 = sum of:
        0.027978022 = weight(_text_:software in 56) [ClassicSimilarity], result of:
          0.027978022 = score(doc=56,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.21915624 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=56)
        0.0072665485 = product of:
          0.021799644 = sum of:
            0.021799644 = weight(_text_:22 in 56) [ClassicSimilarity], result of:
              0.021799644 = score(doc=56,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.19345059 = fieldWeight in 56, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=56)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    The study reported here investigated the query expansion behavior of end-users interacting with a thesaurus-enhanced search system on the Web. Two groups, namely academic staff and postgraduate students, were recruited into this study. Data were collected from 90 searches performed by 30 users using the OVID interface to the CAB abstracts database. Data-gathering techniques included questionnaires, screen capturing software, and interviews. The results presented here relate to issues of search-topic and search-term characteristics, number and types of expanded queries, usefulness of thesaurus terms, and behavioral differences between academic staff and postgraduate students in their interaction. The key conclusions drawn were that (a) academic staff chose more narrow and synonymous terms than did postgraduate students, who generally selected broader and related terms; (b) topic complexity affected users' interaction with the thesaurus in that complex topics required more query expansion and search term selection; (c) users' prior topic-search experience appeared to have a significant effect on their selection and evaluation of thesaurus terms; (d) in 50% of the searches where additional terms were suggested from the thesaurus, users stated that they had not been aware of the terms at the beginning of the search; this observation was particularly noticeable in the case of postgraduate students.
    Date
    22. 7.2006 16:32:43
  17. Bradford, R.B.: Relationship discovery in large text collections using Latent Semantic Indexing (2006) 0.00
    0.0046992763 = product of:
      0.028195657 = sum of:
        0.022382418 = weight(_text_:software in 1163) [ClassicSimilarity], result of:
          0.022382418 = score(doc=1163,freq=2.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.17532499 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=1163)
        0.0058132387 = product of:
          0.017439716 = sum of:
            0.017439716 = weight(_text_:22 in 1163) [ClassicSimilarity], result of:
              0.017439716 = score(doc=1163,freq=2.0), product of:
                0.11268844 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032179873 = queryNorm
                0.15476047 = fieldWeight in 1163, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1163)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    This paper addresses the problem of information discovery in large collections of text. For users, one of the key problems in working with such collections is determining where to focus their attention. In selecting documents for examination, users must be able to formulate reasonably precise queries. Queries that are too broad will greatly reduce the efficiency of information discovery efforts by overwhelming the users with peripheral information. In order to formulate efficient queries, a mechanism is needed to automatically alert users regarding potentially interesting information contained within the collection. This paper presents the results of an experiment designed to test one approach to generation of such alerts. The technique of latent semantic indexing (LSI) is used to identify relationships among entities of interest. Entity extraction software is used to pre-process the text of the collection so that the LSI space contains representation vectors for named entities in addition to those for individual terms. In the LSI space, the cosine of the angle between the representation vectors for two entities captures important information regarding the degree of association of those two entities. For appropriate choices of entities, determining the entity pairs with the highest mutual cosine values yields valuable information regarding the contents of the text collection. The test database used for the experiment consists of 150,000 news articles. The proposed approach for alert generation is tested using a counterterrorism analysis example. The approach is shown to have significant potential for aiding users in rapidly focusing on information of potential importance in large text collections. The approach also has value in identifying possible use of aliases.
    Source
    Proceedings of the Fourth Workshop on Link Analysis, Counterterrorism, and Security, SIAM Data Mining Conference, Bethesda, MD, 20-22 April, 2006. [http://www.siam.org/meetings/sdm06/workproceed/Link%20Analysis/15.pdf]
  18. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.00
    0.00463915 = product of:
      0.0278349 = sum of:
        0.017465167 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.017465167 = score(doc=566,freq=8.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.010369733 = product of:
          0.031109199 = sum of:
            0.031109199 = weight(_text_:29 in 566) [ClassicSimilarity], result of:
              0.031109199 = score(doc=566,freq=4.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.2748193 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Date
    25.10.2007 9:51:29
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  19. Jarvelin, K.: ¬A deductive data model for thesaurus navigation and query expansion (1996) 0.00
    0.0042840247 = product of:
      0.025704147 = sum of:
        0.013972133 = weight(_text_:und in 5625) [ClassicSimilarity], result of:
          0.013972133 = score(doc=5625,freq=2.0), product of:
            0.07132241 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032179873 = queryNorm
            0.19590102 = fieldWeight in 5625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5625)
        0.011732014 = product of:
          0.03519604 = sum of:
            0.03519604 = weight(_text_:29 in 5625) [ClassicSimilarity], result of:
              0.03519604 = score(doc=5625,freq=2.0), product of:
                0.113198735 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.032179873 = queryNorm
                0.31092256 = fieldWeight in 5625, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5625)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Date
    2. 3.1997 17:29:07
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  20. Bayer, O.; Höhfeld, S.; Josbächer, F.; Kimm, N.; Kradepohl, I.; Kwiatkowski, M.; Puschmann, C.; Sabbagh, M.; Werner, N.; Vollmer, U.: Evaluation of an ontology-based knowledge-management-system : a case study of Convera RetrievalWare 8.0 (2005) 0.00
    0.0032972419 = product of:
      0.0395669 = sum of:
        0.0395669 = weight(_text_:software in 624) [ClassicSimilarity], result of:
          0.0395669 = score(doc=624,freq=4.0), product of:
            0.12766245 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032179873 = queryNorm
            0.30993375 = fieldWeight in 624, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=624)
      0.083333336 = coord(1/12)
    
    Abstract
    With RetrievalWare 8.0(TM) the American company Convera offers an elaborated software in the range of Information Retrieval, Information Indexing and Knowledge Management. Convera promises the possibility of handling different file formats in many different languages. Regarding comparable products one innovation is to be stressed particularly: the possibility of the preparation as well as integration of an ontology. One tool of the software package is useful in order to produce ontologies manually, to process existing ontologies and to import the very. The processing of search results is also to be mentioned. By means of categorization strategies search results can be classified dynamically and presented in personalized representations. This study presents an evaluation of the functions and components of the system. Technological aspects and modes of operation under the surface of Convera RetrievalWare will be analysed, with a focus on the creation of libraries and thesauri, and the problems posed by the integration of an existing thesaurus. Broader aspects such as usability and system ergonomics are integrated in the examination as well.

Years

Languages

  • e 64
  • d 34
  • f 1
  • More… Less…

Types

  • a 84
  • el 9
  • m 7
  • r 3
  • x 3
  • s 1
  • More… Less…