Search (83 results, page 1 of 5)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.08
    0.082694784 = product of:
      0.22970772 = sum of:
        0.023240201 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.023240201 = score(doc=42,freq=76.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3773797 = fieldWeight in 42, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.015469776 = weight(_text_:aus in 42) [ClassicSimilarity], result of:
          0.015469776 = score(doc=42,freq=6.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.16320558 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.02043117 = weight(_text_:dem in 42) [ClassicSimilarity], result of:
          0.02043117 = score(doc=42,freq=12.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.22304736 = fieldWeight in 42, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.06773199 = weight(_text_:gesamtgebiet in 42) [ClassicSimilarity], result of:
          0.06773199 = score(doc=42,freq=2.0), product of:
            0.2610263 = queryWeight, product of:
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.027785596 = queryNorm
            0.2594834 = fieldWeight in 42, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.394302 = idf(docFreq=9, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.019898588 = weight(_text_:der in 42) [ClassicSimilarity], result of:
          0.019898588 = score(doc=42,freq=54.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206009 = fieldWeight in 42, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.023240201 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.023240201 = score(doc=42,freq=76.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3773797 = fieldWeight in 42, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.019898588 = weight(_text_:der in 42) [ClassicSimilarity], result of:
          0.019898588 = score(doc=42,freq=54.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206009 = fieldWeight in 42, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.019898588 = weight(_text_:der in 42) [ClassicSimilarity], result of:
          0.019898588 = score(doc=42,freq=54.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206009 = fieldWeight in 42, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.019898588 = weight(_text_:der in 42) [ClassicSimilarity], result of:
          0.019898588 = score(doc=42,freq=54.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3206009 = fieldWeight in 42, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
      0.36 = coord(9/25)
    
    Classification
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
    Content
    Das Buch ist in die Abschnitte Invited Papers (1 Beitrag, 1 Abstract), Representing Context (3 Beiträge), Context and Relevance in Information Seeking (3), Context and Information (3), Contextualised Information Seeking (3), Agendas for Context (3), Context and Documents (2) und Workshops (2 Ankündigungstexte) gegliedert und enthält ein simples Autoren-, jedoch kein Sachregister. Die Autoren der Beiträge stammen mit einigen Ausnahmen (Italien, Frankreich, Russland) aus den angelsächsischen und skandinavischen Ländern.
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.100-103 (O. Oberhauser): "Dieses als Band 3507 der bekannten, seit 1973 erscheinenden Springer-Serie Lecture Notes in Computer Science (LNCS) publizierte Buch versammelt die Vorträge der 5. Tagung "Conceptions of Library and Information Science". CoLIS hat sich in den letzten anderthalb Jahrzehnten als internationales Forum für die Präsentation und Rezeption von Forschung auf den Fachgebieten Informatik und Informationswissenschaft etabliert. Auf die 1992 in Tampere (Finnland) anlässlich des damals 20jährigen Bestehens des dortigen Instituts für Informationswissenschaft abgehaltene erste Tagung folgten weitere in Kopenhagen (1996), Dubrovnik (1999) und Seattle, WA (2002). Die zuletzt an der Strathclyde University in Glasgow (2005) veranstaltete Konferenz war dem Thema "Context" im Rahmen der informationsbezogenen Forschung gewidmet, einem komplexen, dynamischen und multidimensionalen Begriff von grosser Bedeutung für das Verhalten und die Interaktion von Mensch und Maschine. . . .
    Am interessantesten und wichtigsten erschien mir der Grundsatzartikel von Peter Ingwersen und Kalervo Järvelin (Kopenhagen/Tampere), The sense of information: Understanding the cognitive conditional information concept in relation to information acquisition (S. 7-19). Hier versuchen die Autoren, den ursprünglich von Ingwersen1 vorgeschlagenen und damals ausschliesslich im Zusammenhang mit dem interaktiven Information Retrieval verwendeten Begriff "conditional cognitive information" anhand eines erweiterten Modells nicht nur auf das Gesamtgebiet von "information seeking and retrieval" (IS&R) auszuweiten, sondern auch auf den menschlichen Informationserwerb aus der Sinneswahrnehmung, wie z.B. im Alltag oder im Rahmen der wissenschaftlichen Erkenntnistätigkeit. Dabei werden auch alternative Informationsbegriffe sowie die Beziehung von Information und Bedeutung diskutiert. Einen ebenfalls auf Ingwersen zurückgehenden Ansatz thematisiert der Beitrag von Birger Larsen (Kopenhagen), indem er sich mit dessen vor über 10 Jahren veröffentlichten2 Principle of Polyrepresentation befasst. Dieses beruht auf der Hypothese, wonach die Überlappung zwischen unterschiedlichen kognitiven Repräsentationen - nämlich jenen der Situation des Informationssuchenden und der Dokumente - zur Reduktion der einer Retrievalsituation anhaftenden Unsicherheit und damit zur Verbesserung der Performance des IR-Systems genutzt werden könne. Das Prinzip stellt die Dokumente, ihre Autoren und Indexierer, aber auch die sie zugänglich machende IT-Lösung in einen umfassenden und kohärenten theoretischen Bezugsrahmen, der die benutzerorientierte Forschungsrichtung "Information-Seeking" mit der systemorientierten IR-Forschung zu integrieren trachtet. Auf der Basis theoretischer Überlegungen sowie der (wenigen) dazu vorliegenden empirischen Studien hält Larsen das Model, das von Ingwersen sowohl für "exact match-IR" als auch für "best match-IR" intendiert war, allerdings schon in seinen Grundzügen für "Boolean" (d.h. "exact match"-orientiert) und schlägt ein "polyrepresentation continuum" als Verbesserungsmöglichkeit vor.
    Mehrere Beiträge befassen sich mit dem Problem der Relevanz. Erica Cosijn und Theo Bothma (Pretoria) argumentieren, dass für das Benutzerverhalten neben der thematischen Relevanz auch verschiedene andere Relevanzdimensionen eine Rolle spielen und schlagen auf der Basis eines (abermals auf Ingwersen zurückgehenden) erweiterten Relevanzmodells vor, dass IR-Systeme die Möglichkeit zur Abgabe auch kognitiver, situativer und sozio-kognitiver Relevanzurteile bieten sollten. Elaine Toms et al. (Kanada) berichten von einer Studie, in der versucht wurde, die schon vor 30 Jahren von Tefko Saracevic3 erstellten fünf Relevanzdimensionen (kognitiv, motivational, situativ, thematisch und algorithmisch) zu operationalisieren und anhand von Recherchen mit einer Web-Suchmaschine zu untersuchen. Die Ergebnisse zeigten, dass sich diese fünf Dimensionen in drei Typen vereinen lassen, die Benutzer, System und Aufgabe repräsentieren. Von einer völlig anderen Seite nähern sich Olof Sundin und Jenny Johannison (Boras, Schweden) der Relevanzthematik, indem sie einen kommunikationsorientierten, neo-pragmatistischen Ansatz (nach Richard Rorty) wählen, um Informationssuche und Relevanz zu analysieren, und dabei auch auf das Werk von Michel Foucault zurückgreifen. Weitere interessante Artikel befassen sich mit Bradford's Law of Scattering (Hjørland & Nicolaisen), Information Sharing and Timing (Widén-Wulff & Davenport), Annotations as Context for Searching Documents (Agosti & Ferro), sowie dem Nutzen von neuen Informationsquellen wie Web Links, Newsgroups und Blogs für die sozial- und informationswissenschaftliche Forschung (Thelwall & Wouters). In Summe liegt hier ein interessantes und anspruchsvolles Buch vor - inhaltlich natürlich nicht gerade einheitlich und geschlossen, doch dies darf man bei einem Konferenzband ohnedies nicht erwarten. Manche der abgedruckten Beiträge sind sicher nicht einfach zu lesen, lohnen aber die Mühe. Auch für Praktiker aus Bibliothek und Information ist einiges dabei, sofern sie sich für die wissenschaftliche Basis ihrer Tätigkeit interessieren. Fachlich einschlägige Spezial- und grössere Allgemeinbibliotheken sollten das Werk daher unbedingt führen.
    Context: Nature, Impact and Role ist ein typischer LNCS-Softcover-Band in sauberem TeX-Design und mutet mit knapp 50 Euro zwar nicht als wohlfeil an, liegt aber angesichts heutiger Buchpreise im Rahmen. Die Zahl der Tippfehler hält sich in Grenzen, ist jedoch gelegentlich peinlich (z.B. wenn man auf S. 2, noch dazu im Fettdruck, "Tractaus" anstelle von "Tractatus" lesen muss). Als Kuriosum am Rande sei erwähnt, dass die einleitend abgedruckte Namensliste des CoLIS-Programmkomitees, immerhin rund 50 Personen, vom Computer fein säuberlich sortiert wurde - dies allerdings nach dem Alphabet der Vornamen der Komiteemitglieder, was offenbar weder den Herausgebern noch dem Verlag aufgefallen ist."
    RVK
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
  2. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.07
    0.06926679 = product of:
      0.21645871 = sum of:
        0.032536283 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.032536283 = score(doc=4884,freq=76.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.017683426 = weight(_text_:aus in 4884) [ClassicSimilarity], result of:
          0.017683426 = score(doc=4884,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18655951 = fieldWeight in 4884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.020225827 = weight(_text_:dem in 4884) [ClassicSimilarity], result of:
          0.020225827 = score(doc=4884,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.22080563 = fieldWeight in 4884, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.028369226 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.028369226 = score(doc=4884,freq=56.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.032536283 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.032536283 = score(doc=4884,freq=76.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.028369226 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.028369226 = score(doc=4884,freq=56.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.028369226 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.028369226 = score(doc=4884,freq=56.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.028369226 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.028369226 = score(doc=4884,freq=56.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
      0.32 = coord(8/25)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
  3. Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005) 0.06
    0.05638582 = product of:
      0.15662727 = sum of:
        0.018080564 = weight(_text_:und in 1323) [ClassicSimilarity], result of:
          0.018080564 = score(doc=1323,freq=46.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29359633 = fieldWeight in 1323, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.012631019 = weight(_text_:aus in 1323) [ClassicSimilarity], result of:
          0.012631019 = score(doc=1323,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.1332568 = fieldWeight in 1323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.018651024 = weight(_text_:dem in 1323) [ClassicSimilarity], result of:
          0.018651024 = score(doc=1323,freq=10.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.20361347 = fieldWeight in 1323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.017961878 = weight(_text_:der in 1323) [ClassicSimilarity], result of:
          0.017961878 = score(doc=1323,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.28939712 = fieldWeight in 1323, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.018080564 = weight(_text_:und in 1323) [ClassicSimilarity], result of:
          0.018080564 = score(doc=1323,freq=46.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29359633 = fieldWeight in 1323, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.017961878 = weight(_text_:der in 1323) [ClassicSimilarity], result of:
          0.017961878 = score(doc=1323,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.28939712 = fieldWeight in 1323, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.017336596 = weight(_text_:geschichte in 1323) [ClassicSimilarity], result of:
          0.017336596 = score(doc=1323,freq=2.0), product of:
            0.13205938 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.027785596 = queryNorm
            0.1312788 = fieldWeight in 1323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.017961878 = weight(_text_:der in 1323) [ClassicSimilarity], result of:
          0.017961878 = score(doc=1323,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.28939712 = fieldWeight in 1323, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
        0.017961878 = weight(_text_:der in 1323) [ClassicSimilarity], result of:
          0.017961878 = score(doc=1323,freq=44.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.28939712 = fieldWeight in 1323, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1323)
      0.36 = coord(9/25)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2, S.81-83 (O. Oberhauser): "Mit diesem Band haben zwei herausragende Vertreter der europäischen Informationswissenschaft, die Professoren Peter Ingwersen (Kopenhagen) und Kalervo Järvelin (Tampere) ein Werk vorgelegt, das man vielleicht dereinst als ihr opus magnum bezeichnen wird. Mich würde dies nicht überraschen, denn die Autoren unternehmen hier den ambitionierten Versuch, zwei informations wissenschaftliche Forschungstraditionen, die einander bisher in eher geringem Ausmass begegneten, unter einem gesamtheitlichen kognitiven Ansatz zu vereinen - das primär im sozialwissenschaftlichen Bereich verankerte Forschungsgebiet "Information Seeking and Retrieval" (IS&R) und das vorwiegend im Informatikbereich angesiedelte "Information Retrieval" (IR). Dabei geht es ihnen auch darum, den seit etlichen Jahren zwar dominierenden, aber auch als zu individualistisch kritisierten kognitiven Ansatz so zu erweitern, dass technologische, verhaltensbezogene und kooperative Aspekte in kohärenter Weise berücksichtigt werden. Dies geschieht auf folgende Weise in neun Kapiteln: - Zunächst werden die beiden "Lager" - die an Systemen und Laborexperimenten orientierte IR-Tradition und die an Benutzerfragen orientierte IS&R-Fraktion - einander gegenübergestellt und einige zentrale Begriffe geklärt. - Im zweiten Kapitel erfolgt eine ausführliche Darstellung der kognitiven Richtung der Informationswissenschaft, insbesondere hinsichtlich des Informationsbegriffes. - Daran schliesst sich ein Überblick über die bisherige Forschung zu "Information Seeking" (IS) - eine äusserst brauchbare Einführung in die Forschungsfragen und Modelle, die Forschungsmethodik sowie die in diesem Bereich offenen Fragen, z.B. die aufgrund der einseitigen Ausrichtung des Blickwinkels auf den Benutzer mangelnde Betrachtung der Benutzer-System-Interaktion. - In analoger Weise wird im vierten Kapitel die systemorientierte IRForschung in einem konzentrierten Überblick vorgestellt, in dem es sowohl um das "Labormodell" als auch Ansätze wie die Verarbeitung natürlicher Sprache und Expertensysteme geht. Aspekte wie Relevanz, Anfragemodifikation und Performanzmessung werden ebenso angesprochen wie die Methodik - von den ersten Laborexperimenten bis zu TREC und darüber hinaus.
    - Kapitel fünf enthält einen entsprechenden Überblick über die kognitive und benutzerorientierte IR-Tradition. Es zeigt, welche anderen (als nur die labororientierten) IR-Studien durchgeführt werden können, wobei sich die Betrachtung von frühen Modellen (z.B. Taylor) über Belkins ASK-Konzept bis zu Ingwersens Modell der Polyrepräsentation, und von Bates Berrypicking-Ansatz bis zu Vakkaris "taskbased" IR-Modell erstreckt. Auch Web-IR, OKAPI und Diskussionen zum Relevanzbegriff werden hier thematisiert. - Im folgenden Kapitel schlagen die Autoren ein integriertes IS&R Forschungsmodell vor, bei dem die vielfältigen Beziehungen zwischen Informationssuchenden, Systementwicklern, Oberflächen und anderen beteiligten Aspekten berücksichtigt werden. Ihr Ansatz vereint die traditionelle Laborforschung mit verschiedenen benutzerorientierten Traditionen aus IS&R, insbesondere mit den empirischen Ansätzen zu IS und zum interaktiven IR, in einem holistischen kognitiven Modell. - Kapitel sieben untersucht die Implikationen dieses Modells für IS&R, wobei besonders ins Auge fällt, wie komplex die Anfragen von Informationssuchenden im Vergleich mit der relativen Einfachheit der Algorithmen zum Auffinden relevanter Dokumente sind. Die Abbildung der vielfältig variierenden kognitiven Zustände der Anfragesteller im Rahmen der der Systementwicklung ist sicherlich keine triviale Aufgabe. Wie dabei das Problem der Einbeziehung des zentralen Aspektes der Bedeutung gelöst werden kann, sei dahingestellt. - Im achten Kapitel wird der Versuch unternommen, die zuvor diskutierten Punkte in ein IS&R-Forschungsprogramm (Prozesse - Verhalten - Systemfunktionalität - Performanz) umzusetzen, wobei auch einige kritische Anmerkungen zur bisherigen Forschungspraxis getroffen werden. - Das abschliessende neunte Kapitel fasst das Buch kurz zusammen und kann somit auch als Einstieg in dieThematik gelesen werden. Darauffolgen noch ein sehr nützliches Glossar zu allen wichtigen Begriffen, die in dem Buch Verwendung finden, eine Bibliographie und ein Sachregister. Ingwersen und Järvelin haben hier ein sehr anspruchsvolles und dennoch lesbares Buch vorgelegt. Die gebotenen Übersichtskapitel und Diskussionen sind zwar keine Einführung in die Informationswissenschaft, decken aber einen grossen Teil der heute in dieser Disziplin aktuellen und durch laufende Forschungsaktivitäten und Publikationen berührten Teilbereiche ab. Man könnte es auch - vielleicht ein wenig überspitzt - so formulieren: Was hier thematisiert wird, ist eigentlich die moderne Informationswissenschaft. Der Versuch, die beiden Forschungstraditionen zu vereinen, wird diesem Werk sicherlich einen Platz in der Geschichte der Disziplin sichern. Nicht ganz glücklich erscheint der Titel des Buches. "The Turn" soll eine Wende bedeuten, nämlich jene hin zu einer integrierten Sicht von IS und IR. Das geht vermutlich aus dem Untertitel besser hervor, doch dieser erschien den Autoren wohl zu trocken. Schade, denn "The Turn" gibt es z.B. in unserem Verbundkatalog bereits, allerdings mit dem Zusatz "from the Cold War to a new era; the United States and the Soviet Union 1983-1990". Der Verlag, der abgesehen davon ein gediegenes (wenn auch nicht gerade wohlfeiles) Produkt vorgelegt hat, hätte derlei unscharfe Duplizierend besser verhindert. Ungeachtet dessen empfehle ich dieses wichtige Buch ohne Vorbehalt zur Anschaffung; es sollte in keiner grösseren Bibliothek fehlen."
  4. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.05
    0.05299691 = product of:
      0.16561535 = sum of:
        0.02500774 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.02500774 = score(doc=4599,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.017862957 = weight(_text_:aus in 4599) [ClassicSimilarity], result of:
          0.017862957 = score(doc=4599,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.01668198 = weight(_text_:dem in 4599) [ClassicSimilarity], result of:
          0.01668198 = score(doc=4599,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.1821174 = fieldWeight in 4599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.020263731 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.020263731 = score(doc=4599,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.02500774 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.02500774 = score(doc=4599,freq=22.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.020263731 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.020263731 = score(doc=4599,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.020263731 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.020263731 = score(doc=4599,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.020263731 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.020263731 = score(doc=4599,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
      0.32 = coord(8/25)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
  5. ALEPH 500 mit multilingualem Thesaurus (2003) 0.05
    0.052111465 = product of:
      0.16284834 = sum of:
        0.01567184 = weight(_text_:und in 1639) [ClassicSimilarity], result of:
          0.01567184 = score(doc=1639,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2544829 = fieldWeight in 1639, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.021435548 = weight(_text_:aus in 1639) [ClassicSimilarity], result of:
          0.021435548 = score(doc=1639,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22614425 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.020018376 = weight(_text_:dem in 1639) [ClassicSimilarity], result of:
          0.020018376 = score(doc=1639,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.022512684 = weight(_text_:der in 1639) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1639,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1639, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.01567184 = weight(_text_:und in 1639) [ClassicSimilarity], result of:
          0.01567184 = score(doc=1639,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2544829 = fieldWeight in 1639, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.022512684 = weight(_text_:der in 1639) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1639,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1639, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.022512684 = weight(_text_:der in 1639) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1639,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1639, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
        0.022512684 = weight(_text_:der in 1639) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1639,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1639, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1639)
      0.32 = coord(8/25)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  6. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.05
    0.052111465 = product of:
      0.16284834 = sum of:
        0.01567184 = weight(_text_:und in 1640) [ClassicSimilarity], result of:
          0.01567184 = score(doc=1640,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2544829 = fieldWeight in 1640, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.021435548 = weight(_text_:aus in 1640) [ClassicSimilarity], result of:
          0.021435548 = score(doc=1640,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.22614425 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.020018376 = weight(_text_:dem in 1640) [ClassicSimilarity], result of:
          0.020018376 = score(doc=1640,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 1640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.022512684 = weight(_text_:der in 1640) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1640,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1640, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.01567184 = weight(_text_:und in 1640) [ClassicSimilarity], result of:
          0.01567184 = score(doc=1640,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2544829 = fieldWeight in 1640, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.022512684 = weight(_text_:der in 1640) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1640,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1640, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.022512684 = weight(_text_:der in 1640) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1640,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1640, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
        0.022512684 = weight(_text_:der in 1640) [ClassicSimilarity], result of:
          0.022512684 = score(doc=1640,freq=12.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.36271852 = fieldWeight in 1640, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1640)
      0.32 = coord(8/25)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  7. Gillitzer, B.: Yewno (2017) 0.05
    0.049963985 = product of:
      0.15613745 = sum of:
        0.021749023 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.021749023 = score(doc=3447,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.02020963 = weight(_text_:aus in 3447) [ClassicSimilarity], result of:
          0.02020963 = score(doc=3447,freq=4.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.21321087 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.021225162 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.021225162 = score(doc=3447,freq=24.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.021749023 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.021749023 = score(doc=3447,freq=26.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.021225162 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.021225162 = score(doc=3447,freq=24.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.021225162 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.021225162 = score(doc=3447,freq=24.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.021225162 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.021225162 = score(doc=3447,freq=24.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0075291297 = product of:
          0.0150582595 = sum of:
            0.0150582595 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.0150582595 = score(doc=3447,freq=2.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.32 = coord(8/25)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  8. Imhof, A.: RSWK/SWD und Faceted Browsing : neue Möglichkeiten einer inhaltlich-intuitiven Navigation (2006) 0.05
    0.04958296 = product of:
      0.15494674 = sum of:
        0.024128376 = weight(_text_:und in 5946) [ClassicSimilarity], result of:
          0.024128376 = score(doc=5946,freq=32.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.39180204 = fieldWeight in 5946, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.014290365 = weight(_text_:aus in 5946) [ClassicSimilarity], result of:
          0.014290365 = score(doc=5946,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.15076284 = fieldWeight in 5946, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018873507 = weight(_text_:dem in 5946) [ClassicSimilarity], result of:
          0.018873507 = score(doc=5946,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.20604233 = fieldWeight in 5946, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018381529 = weight(_text_:der in 5946) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5946,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5946, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.024128376 = weight(_text_:und in 5946) [ClassicSimilarity], result of:
          0.024128376 = score(doc=5946,freq=32.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.39180204 = fieldWeight in 5946, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018381529 = weight(_text_:der in 5946) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5946,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5946, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018381529 = weight(_text_:der in 5946) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5946,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5946, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
        0.018381529 = weight(_text_:der in 5946) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5946,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5946, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
      0.32 = coord(8/25)
    
    Abstract
    Das deutschsprachige Bibliothekswesen verfügt mit den "Regeln für den Schlagwortkatalog" (RSWK) unter Verwendung der "Schlagwortnormdatei" (SWD) über ein Instrumentarium, welches zusammen mit einem "Faceted Browsing" das bisher bestehende Angebot für ein Information Retrieval optimal ergänzen kann. Die Verbindung zwischen Standardvokabular (SWD) und Kettenbildung (RSWK) einerseits und eine nach Facetten-Eigenschaften gegliederte Navigation andererseits unterstützt bestmöglich eine inhaltlich bezogene Recherche. Die Stärken und Schwächen der RSWK/SWD werden erörtert und auch Klassifikationen (DDC und RVK) als mögliche Facetten diskutiert.
    Content
    "Die kontinuierliche Optimierung der Informationsversorgung ist ein von allen Seiten unterstütztes Ziel in Forschung und Lehre. Neben der Verfügbarkeit an Literatur ist das Organisieren derselben, aber auch das Suchen, Finden und Erhalten von Informationen angesprochen. Die Anstrengungen der vergangenen Jahre für eine verbesserte Literaturrecherche haben in der Bibliothekswelt bereits zu einigen Erfolgen geführt. Inzwischen ist es selbstverständlich geworden, über das Internet in deutschen und internationalen Online-Katalogen nach relevanter Literatur zu suchen. Weiterführende Dienste wie Dokumentenlieferung oder direkte Verlinkung zu elektronischen Volltexten sind dabei nahtlos eingebunden. Die Weiterentwicklung bibliothekarischer Dienstleistungen werden ohne Unterbrechung vorangetrieben, zumal freie Suchmaschinen wie Google im "Information Retrieval", insbesondere durch Google-Scholar und Google-Buchsuche, einen beträchtlichen Konkurrenzdruck auf die Bibliotheken ausüben. Dabei drängt sich insgesamt der Eindruck auf, dass die Bibliotheken gegenüber den freien Suchmaschinen deren Entwicklungen hinterherlaufen. Ohne es als solches wahrzunehmen, verfügen die Bibliotheken im deutschsprachigen Raum jedoch über ein Instrument, mit dem sie im Wettbewerb mit Google um die Nutzerinnen wieder ihre Vorzüge herausstellen können. Es existiert längst ein Konzept, mit dessen Hilfe die Literaturrecherche inhaltlich-intuitiv gestaltet und damit ein Vorteil der Bibliotheksrecherche gegenüber kommerziellen Suchmaschinen herausgearbeitet werden kann. Das Konzept heißt "Regeln für den Schlagwortkatalog" (RSWK)' und bietet im Zusammenhang mit dem mittlerweile nicht mehr ganz so neuen Navigationskonzept "Faceted Browsing" ungeahnte Möglichkeiten eines intuitiven Recherschewerkzeuges, das Literatur gezielt inhaltlich entdecken lässt.
    ... Zusammenfassung Abschließend kann festgehalten werden, dass die RSWK/SWD für sich betrachtet in der bislang eingesetzten Form nicht ihre volle Wirkung im Information Retrieval erreicht. Das Faceted Browsing, für das bisher alle möglichen und unmöglichen Metadaten verwendet werden, ist zwar ein geeignetes Feature, liefert aber immer noch nicht den spürbaren Nutzungsgewinn. Die SWD, die leider noch nicht alle Wissenschaftsbereiche umfasst, und die unvollständige Erschließung mit RSWK/SWD ist zum jetzigen Zeitpunkt nicht vollends befriedigend. Doch ein Arrangement mit den Unzulänglichkeiten bis zur kontinuierlich verlaufenden Optimierung dieser Situation lohnt sich. Die RSWK/SWD und das Faceted Browsing spielen erst gemeinsam ihre Stärken richtig aus. Standardisiertes Vokabular (SWD) in einen Sinnzusammenhang gestellt (RSWK) bildet alle relevanten Eigenschaften eines Textes in kurzer, maschinenlesbarer Form (Faceted Browsing) ab. Auf diese Weise erhalten wir eine inhaltlich-intuitive Navigation über Bibliotheksbestände und weitere Literatur."
  9. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.05
    0.04700724 = product of:
      0.14689763 = sum of:
        0.01846944 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.01846944 = score(doc=2432,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017862957 = weight(_text_:aus in 2432) [ClassicSimilarity], result of:
          0.017862957 = score(doc=2432,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.023591883 = weight(_text_:dem in 2432) [ClassicSimilarity], result of:
          0.023591883 = score(doc=2432,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 2432, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017125979 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.017125979 = score(doc=2432,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.01846944 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.01846944 = score(doc=2432,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017125979 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.017125979 = score(doc=2432,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017125979 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.017125979 = score(doc=2432,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.017125979 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.017125979 = score(doc=2432,freq=10.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.32 = coord(8/25)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  10. Revolutionäre neue Suchvariante mit neuem grafischen Assoziativ-OPAC : Spidersearch von BOND 0.04
    0.0435355 = product of:
      0.15548393 = sum of:
        0.02262035 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.02262035 = score(doc=1088,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.023591883 = weight(_text_:dem in 1088) [ClassicSimilarity], result of:
          0.023591883 = score(doc=1088,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 1088, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.021662839 = weight(_text_:der in 1088) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1088,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1088, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.02262035 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.02262035 = score(doc=1088,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.021662839 = weight(_text_:der in 1088) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1088,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1088, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.021662839 = weight(_text_:der in 1088) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1088,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1088, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.021662839 = weight(_text_:der in 1088) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1088,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1088, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
      0.28 = coord(7/25)
    
    Abstract
    "Ergonomisch" suchen! Ähnlich wie beim Surfen durch Webseiten, so navigiert der Leser mit SpiderSearch per Mausklick durch den Medienbestand der Bibliothek und erschließt diesen damit spielerisch. Wie kann man sich das vorstellen? SpiderSearch ist ein Zusatzmodul zum bewährten BOND-WebOPAC. Der Benutzer gibt, wie im normalen WebOPAC, sein gesuchtes Stichwort ein. Sofort setzt SpiderSearch den Begriff in das Zentrum einer grafischen Ergebnisoberfläche. Gleichzeitig bereitet SpiderSearch ein "semantisches Netz" mit "sinnvollen" Begriffen für die weitere Suche auf und stellt diese dem Leser in animierter visuell ansprechender Form zur Verfügung. Diese Begriffe (Assoziative) sind auf unterschiedliche Arten mit dem gesuchten Zentralbegriff verwandt. Sei es eine Wortverwandtschaft wie "Bibliothek" und "Bibliothekarin", eine Sinnverwandtschaft wie "Bibliothek" und "lesen" oder ein anderer sprachwissenschaftlicher Zusammenhang wie z.B. "Bibliothek" und "Ruhe". Die unterschiedlichen Verwandtschaftsarten werden durch unterschiedliche Farben und Größen deutlich. Zum Verfeinern kann der Benutzer einfach einen der verwandten Begriffe anklicken und die Suche wird um diesen Suchbegriff erweitert. So wird der Leser in seiner weiteren Suche quasi durch dieses "Netz" geführt. Eine revolutionäre Art der Suche, mit der die Bibliotheksbenutzer ihre eigenen Informationsnetze spinnen und einfach und sehr anschaulich den Medienbestand noch optimaler erschließen können.
  11. BOND: Assoziativ-OPAC SpiderSearch (2003) 0.04
    0.0435355 = product of:
      0.15548393 = sum of:
        0.02262035 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.02262035 = score(doc=1795,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 1795, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.023591883 = weight(_text_:dem in 1795) [ClassicSimilarity], result of:
          0.023591883 = score(doc=1795,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.021662839 = weight(_text_:der in 1795) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1795,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1795, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.02262035 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.02262035 = score(doc=1795,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.3673144 = fieldWeight in 1795, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.021662839 = weight(_text_:der in 1795) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1795,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1795, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.021662839 = weight(_text_:der in 1795) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1795,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1795, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
        0.021662839 = weight(_text_:der in 1795) [ClassicSimilarity], result of:
          0.021662839 = score(doc=1795,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 1795, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1795)
      0.28 = coord(7/25)
    
    Abstract
    Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um eine innovative Neuheit, den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinn- oder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Mühsame Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart. Dies übernimmt SpiderSearch und navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe, kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAL auf. Vor allem bei Öffentlichen Bibliotheken stößt SpiderSearch auf großes Interesse. Erste Anwender bieten Ihren Lesern bereits dieses neue Sucherlebnis.
  12. Weichselgartner, E.: ZPID bindet Thesaurus in Retrievaloberfläche ein (2006) 0.04
    0.04326619 = product of:
      0.1545221 = sum of:
        0.016860213 = weight(_text_:und in 5962) [ClassicSimilarity], result of:
          0.016860213 = score(doc=5962,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.27378 = fieldWeight in 5962, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.028894037 = weight(_text_:dem in 5962) [ClassicSimilarity], result of:
          0.028894037 = score(doc=5962,freq=6.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.3154366 = fieldWeight in 5962, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.02297691 = weight(_text_:der in 5962) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5962,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5962, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.016860213 = weight(_text_:und in 5962) [ClassicSimilarity], result of:
          0.016860213 = score(doc=5962,freq=10.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.27378 = fieldWeight in 5962, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.02297691 = weight(_text_:der in 5962) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5962,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5962, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.02297691 = weight(_text_:der in 5962) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5962,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5962, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.02297691 = weight(_text_:der in 5962) [ClassicSimilarity], result of:
          0.02297691 = score(doc=5962,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.37019804 = fieldWeight in 5962, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
      0.28 = coord(7/25)
    
    Abstract
    Seit 3. Juli 2006 stellt das ZPID eine verbesserte Suchoberfläche für die Recherche in der bibliographischen Psychologie-Datenbank PSYNDEX zur Verfügung. Hauptmerkmal der neuen Version 1.1 des 'ZPID-Retrieval für PSYNDEX' ist die Einbindung von 'PSYNDEX Terms', dem kontrollierten Wortschatz der psychologischen Fachsprache. PSYNDEX Terms basiert auf dem 'Thesaurus of Psychological Index Terms' der American Psychological Association (APA) und enthält im Moment über 5.400 Deskriptoren. Zu jedem Deskriptor werden ggf. Oberbegriffe, Unterbegriffe und verwandte Begriffe angezeigt. Wer die Suchoberfläche nutzt, kann entweder im Thesaurus blättern oder gezielt nach Thesaurusbegriffen suchen. Kommt der eigene frei gewählte Suchbegriff nicht im Thesaurus vor, macht das System selbsttätig Vorschläge für passende Thesaurusbegriffe. DerThesaurus ist komplett zweisprachig (deutsch/englisch) implementiert, sodass er auch als Übersetzungshilfe dient. Weitere Verbesserungen der Suchoberfläche betreffen die Darstellbarkeit in unterschiedlichen Web-Browsern mit dem Ziel der Barrierefreiheit, die Erweiterung der OnlineHilfe mit Beispielen für erfolgreiche Suchstrategien, die Möglichkeit, zu speziellen Themen vertiefte Informationen abzurufen (den Anfang machen psychologische Behandlungsprogramme) und die Bereitstellung eines Export-Filters für EndNote. Zielgruppe des ZPID-Retrieval sind Einzelpersonen, die keinen institutionellen PSYNDEX-Zugang, z.B. am Campus einer Universität, nutzen können. Sie können das kostenpflichtige Retrieval direkt online erwerben und werden binnen weniger Minuten freigeschaltet. Kunden mit existierendem Vertrag kommen automatisch in den Genuss der verbesserten Suchoberfläche.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.5, S.244
  13. Beier, H.: Vom Wort zum Wissen : Semantische Netze als Mittel gegen die Informationsflut (2004) 0.04
    0.04297352 = product of:
      0.15347685 = sum of:
        0.018096281 = weight(_text_:und in 2302) [ClassicSimilarity], result of:
          0.018096281 = score(doc=2302,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 2302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.020018376 = weight(_text_:dem in 2302) [ClassicSimilarity], result of:
          0.020018376 = score(doc=2302,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 2302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.024316479 = weight(_text_:der in 2302) [ClassicSimilarity], result of:
          0.024316479 = score(doc=2302,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 2302, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.018096281 = weight(_text_:und in 2302) [ClassicSimilarity], result of:
          0.018096281 = score(doc=2302,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.29385152 = fieldWeight in 2302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.024316479 = weight(_text_:der in 2302) [ClassicSimilarity], result of:
          0.024316479 = score(doc=2302,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 2302, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.024316479 = weight(_text_:der in 2302) [ClassicSimilarity], result of:
          0.024316479 = score(doc=2302,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 2302, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
        0.024316479 = weight(_text_:der in 2302) [ClassicSimilarity], result of:
          0.024316479 = score(doc=2302,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.3917808 = fieldWeight in 2302, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2302)
      0.28 = coord(7/25)
    
    Abstract
    "Thesaurus linguae latinae" - so heißt eine der frühesten Wort-Sammlungen. Seit Alters her beschäftigen sich Menschen mit der qualifizierten Aufbereitung von Information. Noch älter ist sogar das Konzept der Ontologie (wörtlich: die "Lehre vom Sein"), die sich als Disziplin der Philosophie bereits seit Aristoteles (384-322 v. Chr.) mit einer objektivistischen Beschreibung der Wirklichkeit beschäftigt. Ontologien - als Disziplin des modernen Wissensmanagements-sind eine Methode, in möglichst kompakter Form, d.h. unter Verwendung von Konzepten in verschiedenen Meta-Ebenen die reale Welt zu beschreiben. Thesaurus und Ontologie stellen zwei Konzepte dar, die auch heute noch in der Wissenschaft - und in jüngster Zeit mit zunehmender Bedeutung auch in der Wirtschaft - im Bereich des Informationsund Wissensmanagements zum Einsatz kommen. Beide spannen gewissermaßen den konzeptionellen Bogen, an dem sich ein pragmatisches Wissensmanagement heutzutage ausrichtet und sich in Form sogenannter semantischer Netze - auch Wissensnetze genannt - wiederfindet.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.133-138
  14. AssoziativOPAC : SpiderSearch von BOND (2003) 0.04
    0.042811044 = product of:
      0.15289658 = sum of:
        0.02132667 = weight(_text_:und in 2029) [ClassicSimilarity], result of:
          0.02132667 = score(doc=2029,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.34630734 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.023591883 = weight(_text_:dem in 2029) [ClassicSimilarity], result of:
          0.023591883 = score(doc=2029,freq=4.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.25755292 = fieldWeight in 2029, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.021662839 = weight(_text_:der in 2029) [ClassicSimilarity], result of:
          0.021662839 = score(doc=2029,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.02132667 = weight(_text_:und in 2029) [ClassicSimilarity], result of:
          0.02132667 = score(doc=2029,freq=16.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.34630734 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.021662839 = weight(_text_:der in 2029) [ClassicSimilarity], result of:
          0.021662839 = score(doc=2029,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.021662839 = weight(_text_:der in 2029) [ClassicSimilarity], result of:
          0.021662839 = score(doc=2029,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
        0.021662839 = weight(_text_:der in 2029) [ClassicSimilarity], result of:
          0.021662839 = score(doc=2029,freq=16.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34902605 = fieldWeight in 2029, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2029)
      0.28 = coord(7/25)
    
    Content
    "Der Hersteller von Bibliothekssoftware BOND erweitert sein Produktangebot um den Assoziativ-OPAC SpiderSearch. Dieser graphische Web-OPAC sucht zu einem Stichwort Assoziative, d.h. sinnoder sprachwissenschaftlich verwandte Begriffe. Diese baut er spinnennetzartig um den zentralen Suchbegriff herum auf. Anhand der ihm angebotenen Assoziative kann sich der Leser sehr einfach und anschaulich durch den Medienbestand der Bibliothek klicken. So findet er schnell und komfortabel relevante Medien, die mit herkömmlichen Suchverfahren nur schwer recherchierbar wären. Überlegungen über verwandte Suchbegriffe und angrenzende Themengebiete bleiben dem Benutzer erspart: SpiderSearch navigiert den Benutzer ähnlich wie beim Surfen durch Webseiten durch sämtliche Themen, die mit dem Suchbegriff in Zusammenhang stehen. Auch aufwändiges Durchblättern einer riesigen Suchergebnisliste ist nicht nötig. Durch die im semantischen Netz vorgeschlagenen Begriffe kann der Benutzer sein Thema genau eingrenzen und erhält in seiner Trefferliste nur passende Medien. Diese ordnet SpiderSearch nach ihrer Relevanz, so dass der Leser die benötigte Literatur einfach und komfortabel findet. Wie auch im normalen Web-OPAC enthält die Trefferliste Angaben zu Titel, Standort und Verfügbarkeit des Mediums. Zur einfachen Zuordnung der Medienart ist jedem Medium ein entsprechendes Symbol zugewiesen. Per Mausklick erhält der Benutzer Detailangaben zum Medium und optional eine Ansicht des Buchcovers. SpiderSearch ist ein Zusatzmodul zur Software BIBLIOTHECA2000 von BOND und setzt auf den Web-OPAC auf."
  15. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.04
    0.042187847 = product of:
      0.15067089 = sum of:
        0.025857216 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.025857216 = score(doc=1852,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.021445118 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.021445118 = score(doc=1852,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.025857216 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.025857216 = score(doc=1852,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.021445118 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.021445118 = score(doc=1852,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.021445118 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.021445118 = score(doc=1852,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.021445118 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.021445118 = score(doc=1852,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.013175976 = product of:
          0.026351953 = sum of:
            0.026351953 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.026351953 = score(doc=1852,freq=2.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.5 = coord(1/2)
      0.28 = coord(7/25)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  16. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.04
    0.042187847 = product of:
      0.15067089 = sum of:
        0.025857216 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.025857216 = score(doc=4324,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.021445118 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4324,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.025857216 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.025857216 = score(doc=4324,freq=12.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.021445118 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4324,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.021445118 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4324,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.021445118 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.021445118 = score(doc=4324,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.013175976 = product of:
          0.026351953 = sum of:
            0.026351953 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.026351953 = score(doc=4324,freq=2.0), product of:
                0.097300425 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027785596 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.28 = coord(7/25)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  17. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.04
    0.04156605 = product of:
      0.14845018 = sum of:
        0.015080235 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.015080235 = score(doc=566,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.01668198 = weight(_text_:dem in 566) [ClassicSimilarity], result of:
          0.01668198 = score(doc=566,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.1821174 = fieldWeight in 566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.025401931 = weight(_text_:der in 566) [ClassicSimilarity], result of:
          0.025401931 = score(doc=566,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.015080235 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.015080235 = score(doc=566,freq=8.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.025401931 = weight(_text_:der in 566) [ClassicSimilarity], result of:
          0.025401931 = score(doc=566,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.025401931 = weight(_text_:der in 566) [ClassicSimilarity], result of:
          0.025401931 = score(doc=566,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.025401931 = weight(_text_:der in 566) [ClassicSimilarity], result of:
          0.025401931 = score(doc=566,freq=22.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.40926933 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
      0.28 = coord(7/25)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  18. Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001) 0.04
    0.041393336 = product of:
      0.14783335 = sum of:
        0.027144423 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.027144423 = score(doc=5856,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.020018376 = weight(_text_:dem in 5856) [ClassicSimilarity], result of:
          0.020018376 = score(doc=5856,freq=2.0), product of:
            0.09160014 = queryWeight, product of:
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.027785596 = queryNorm
            0.21854089 = fieldWeight in 5856, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2966774 = idf(docFreq=4447, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.018381529 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5856,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.027144423 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.027144423 = score(doc=5856,freq=18.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.018381529 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5856,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.018381529 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5856,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.018381529 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.018381529 = score(doc=5856,freq=8.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
      0.28 = coord(7/25)
    
    Abstract
    Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  19. Heinz, S.: Realisierung und Evaluierung eines virtuellen Bibliotheksregals für die Informationswissenschaft an der Universitätsbibliothek Hildesheim (2003) 0.04
    0.039657198 = product of:
      0.16523832 = sum of:
        0.018283812 = weight(_text_:und in 5982) [ClassicSimilarity], result of:
          0.018283812 = score(doc=5982,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2968967 = fieldWeight in 5982, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.032167677 = weight(_text_:der in 5982) [ClassicSimilarity], result of:
          0.032167677 = score(doc=5982,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5182773 = fieldWeight in 5982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.018283812 = weight(_text_:und in 5982) [ClassicSimilarity], result of:
          0.018283812 = score(doc=5982,freq=6.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.2968967 = fieldWeight in 5982, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.032167677 = weight(_text_:der in 5982) [ClassicSimilarity], result of:
          0.032167677 = score(doc=5982,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5182773 = fieldWeight in 5982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.032167677 = weight(_text_:der in 5982) [ClassicSimilarity], result of:
          0.032167677 = score(doc=5982,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5182773 = fieldWeight in 5982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.032167677 = weight(_text_:der in 5982) [ClassicSimilarity], result of:
          0.032167677 = score(doc=5982,freq=18.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.5182773 = fieldWeight in 5982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
      0.24 = coord(6/25)
    
    Abstract
    Im Rahmen der vorliegenden Magisterarbeit wurde ein virtuelles Bibliotheksregal für die Informationswissenschaft entwickelt. Es ermöglicht den BenutzerInnen den Browsing-Zugang zum informationswissenschaftlichen Literaturbestand der Universitätsbibliothek Hildesheim über drei verschiedene hierarchische Ordnungssystematiken. Die BenutzerInnen können eine Systematik auswählen, nach der sich der Bestand entsprechend anordnet. Die vorliegende Arbeit beschreibt die einzelnen Schritte der Realisierung des virtuellen Bibliotheksregals sowie seine anschließende Evaluierung durch einen Benutzertest, der mit Studierenden der Universität Hildesheim durchgeführt wurde.
    Content
    [Magisterarbeit im Studiengang Internationales Informationsmanagement am Fachbereich Informations- und Kommunikationswissenschaften der Universität Hildesheim]
    Imprint
    Hildesheim] : Fachbereich Informations- und Kommunikationswissenschaften
  20. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.04
    0.038868602 = product of:
      0.13881643 = sum of:
        0.019949274 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.019949274 = score(doc=2489,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.017862957 = weight(_text_:aus in 2489) [ClassicSimilarity], result of:
          0.017862957 = score(doc=2489,freq=2.0), product of:
            0.094787054 = queryWeight, product of:
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.027785596 = queryNorm
            0.18845356 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.4113739 = idf(docFreq=3965, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.020263731 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.020263731 = score(doc=2489,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.019949274 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.019949274 = score(doc=2489,freq=14.0), product of:
            0.061583076 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027785596 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.020263731 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.020263731 = score(doc=2489,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.020263731 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.020263731 = score(doc=2489,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.020263731 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.020263731 = score(doc=2489,freq=14.0), product of:
            0.06206654 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.027785596 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.28 = coord(7/25)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.33-38

Authors

Years

Languages

  • e 43
  • d 38

Types

  • a 66
  • el 9
  • m 7
  • r 4
  • x 3
  • s 2
  • More… Less…