Search (84 results, page 1 of 5)

  • × theme_ss:"Katalogfragen allgemein"
  1. Mayr, P.: Bradfordizing mit Katalogdaten : Alternative Sicht auf Suchergebnisse und Publikationsquellen durch Re-Ranking (2010) 0.03
    0.029675325 = product of:
      0.17805195 = sum of:
        0.17805195 = weight(_text_:ranking in 4301) [ClassicSimilarity], result of:
          0.17805195 = score(doc=4301,freq=12.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.87831676 = fieldWeight in 4301, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=4301)
      0.16666667 = coord(1/6)
    
    Abstract
    Nutzer erwarten für Literaturrecherchen in wissenschaftlichen Suchsystemen einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, für viele Nutzer inzwischen eine entscheidende Rolle. Abgegrenzt wird Ranking oder Relevance Ranking von sogenannten Sortierungen zum Beispiel nach dem Erscheinungsjahr der Publikation, obwohl hier die Grenze zu »nach inhaltlicher Relevanz« gerankten Listen konzeptuell nicht sauber zu ziehen ist. Das Ranking von Dokumenten führt letztlich dazu, dass sich die Benutzer fokussiert mit den oberen Treffermengen eines Suchergebnisses beschäftigen. Der mittlere und untere Bereich eines Suchergebnisses wird häufig nicht mehr in Betracht gezogen. Aufgrund der Vielzahl an relevanten und verfügbaren Informationsquellen ist es daher notwendig, Kernbereiche in den Suchräumen zu identifizieren und diese anschließend dem Nutzer hervorgehoben zu präsentieren. Phillipp Mayr fasst hier die Ergebnisse seiner Dissertation zum Thema »Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken« zusammen.
  2. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.02
    0.0242298 = product of:
      0.1453788 = sum of:
        0.1453788 = weight(_text_:ranking in 5744) [ClassicSimilarity], result of:
          0.1453788 = score(doc=5744,freq=8.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.71714264 = fieldWeight in 5744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
  3. Sunckel, B.; Reh, U.; Nienerza, H.: ¬Das HeBIS Discovery System : Kooperative Entwicklung einer neuen Rechercheoberfläche für HeBIS-Bibliotheken (2014) 0.02
    0.02184207 = product of:
      0.13105242 = sum of:
        0.13105242 = weight(_text_:suchmaschine in 2576) [ClassicSimilarity], result of:
          0.13105242 = score(doc=2576,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.6184341 = fieldWeight in 2576, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2576)
      0.16666667 = coord(1/6)
    
    Abstract
    Die HeBIS-Verbundzentrale bietet das HeBIS Discovery System (HDS) als Dienstleistung für interessierte Mitgliedsbibliotheken an. Der Service beinhaltet eine Rechercheoberfläche mit Suchunterstützung durch eine moderne Suchmaschine, Erweiterung des Suchraums mit Inhalten aus Datenbanken und Volltexten durch einen Resource Discovery Service und alle gewohnten Funktionen eines lokalen OPACs. Technisch besteht HDS aus dem Open-Source-OPAC VuFind, der Suchmaschine Solr, dem Discovery-Service EDS und dem ReDi-Linkresolver. Dieser Beitrag geht auf die Projektstruktur und die Erfahrungen bei der kooperativen Entwicklung ein.
  4. Haake, E.; Blenkle, M.; Ellis, R.; Zillmann, H.: Nur die ersten Drei zählen! : Optimierung der Rankingverfahren über Popularitätsfaktoren bei der Elektronischen Bibliothek Bremen (E-LIB) (2015) 0.02
    0.017133057 = product of:
      0.102798335 = sum of:
        0.102798335 = weight(_text_:ranking in 2150) [ClassicSimilarity], result of:
          0.102798335 = score(doc=2150,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 2150, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit Einführung der neuen Discovery-Kataloge stehen unseren Nutzerinnen und Nutzern zusätzlich Millionen von Dokumenten neben dem lokalen Buchbestand zur Verfügung. Diese Zielgruppe muss in die Lage versetzt werden, die für sie relevanten Titel einfach und sicher zu finden. Die Qualität von Empfehlungsfunktionen und besonders der Relevanz-Ranking-Methoden sind daher für den Erfolg eines Discovery-Systems besonders wichtig. Das Ranking bibliothekarischer Suchmaschinentechnik ignoriert bisher das Feedback durch Nutzerinnen und Nutzer. Die Staats- und Universitätsbibliothek Bremen (SuUB) setzt mit dem in Bremen entwickelten Discovery-System "E-LIB" seit Sommer 2011 zusätzlich auf eine Modifikation des Treffer-Rankings über Popularitätsfaktoren der Medien wie Klickstatistik, Auflagen- und Exemplarzahl. Die maßgeschneiderte Entwicklung eines eigenen Bibliothekskataloges, den die SuUB seit 2004 mit dem Discovery-System "E-LIB" in Bremen betreibt, erlaubt die schnelle und flexible Anpassung von Retrievalfunktionen an die Bedürfnisse der Nutzerinnen und Nutzer vor Ort.
  5. hbz: ¬Das Suchraum-Konzept (2007) 0.02
    0.0156014785 = product of:
      0.09360887 = sum of:
        0.09360887 = weight(_text_:suchmaschine in 310) [ClassicSimilarity], result of:
          0.09360887 = score(doc=310,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.44173864 = fieldWeight in 310, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
      0.16666667 = coord(1/6)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  6. Weber, A.: "HeiIFASTen" - Entschlacken mit Leistungsgewinn : Neue Möglichkeiten für Bibliothekskataloge durch den Einsatz von Suchmaschinentechnologie (2007) 0.01
    0.014800863 = product of:
      0.08880518 = sum of:
        0.08880518 = weight(_text_:suchmaschine in 401) [ClassicSimilarity], result of:
          0.08880518 = score(doc=401,freq=10.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.41907007 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=401)
      0.16666667 = coord(1/6)
    
    Content
    "Der Einsatz von Suchmaschinentechnologie in Bibliothekskatalogen hat bewiesen, dass durch optimierte Indexierungsverfahren Verbesserungen der Informationsversorgung für Bibliotheksbenutzer erreicht werden. Im Dezember 2006 wurde das lokale Bibliotheksportal "SISIS-InfoGuide" von OCLC PICA um eine auf FAST Technologie basierende Suchmaschine erweitert. Die Investition des Freistaates Bayern in eine Landeslizenz für den Einsatz von FAST in den Bayerischen Universitätsbibliotheken hat sich ausgezahlt. Nachfolgend werden einige der Vorteile kurz skizziert, die sich aus dieser Erweiterung ergeben haben. Am deutlichsten ist die Auswirkung dieser Technik bei den Antwortzeiten. Insbesondere die Suche nach häufig in den Bibliotheksdaten vorkommenden Begriffen, z.B. Deutschland oder Geschichte, werden selbst sehr große Treffermengen in Bruchteilen von Sekunden geliefert. Das Scheitern von Abfragen wegen erreichter Zeitlimits gehört damit der Vergangenheit an. Aus dieser Tatsache ergibt sich auch, dass Benutzer nicht mehr spezifisch suchen müssen, da nun auch große Treffermengen in kurzer Zeit präsentiert werden. Das alleine wäre kein Vorteil, wenn nicht auch Methoden zur Verfügung gestellt würden, mit diesen Treffermengen umzugehen. Auch hier liefert die Suchmaschinentechnologie adäquate Hilfsmittel, die so genannten "Drill Downs". Bestimmte, vordefinierte Felder werden beim Aufbau der Trefferlisten analysiert und die Feldinhalte nach Häufigkeit sortiert als Sucheinschränkung angeboten. Die Eingrenzung auf eine Sprache, einen Erscheinungszeitraum oder ein bestimmtes Schlagwort ist so mit einem einzigen Mausklick möglich. Die daraus neu entstehende Treffermenge wird wiederum dieser Analyse unterworfen. Mit wenigen Mausklicks gelangt der Benutzer so von einem allgemeinen Ergebnis zu einer überschaubaren Menge an Treffern Standardmäßig werden die Treffer nicht mehr nach dem Alphabet oder Erscheinungsjahren sortiert, sondern es wird aus dem Vorkommen der Suchmuster in den Elementen der Katalogaufnahme und dem Erscheinungsjahr eine Relevanz ermittelt. Wie bei Internetsuchmaschinen gewohnt, werden die Treffer, die der Suchanfrage am besten entsprechen, in der Trefferliste ganz oben präsentiert,. Weiterhin ermöglicht die FAST Technologie eine Ähnlichkeitssuche, die auf Dokumentvektoren aufbaut. Diese werden an Hand statistischer Verfahren für das zu indexierende Dokument errechnet. Die Ermittlung von Ähnlichkeiten wird auf die erstellte Treffermenge angewendet und erlaubt sowohl Einschränkungen als auch Ausweitungen der ermittelten Suchergebnisse.
    Eine zusätzliche Unterstützung der Recherche bietet die auf Wörterbüchern basierende linguistische Komponente der Suchmaschine. Die Begriffe werden beim Indexieren der Daten lemmatisiert - also auf eine Grundform zurückgeführt. Bei der Eingabe der Suchanfrage werden dieselben linguistischen Methoden verwendet, um die eingegebenen Begriffe der Suchanfrage zu analysieren und ggf. auf die im Index enthaltene Form zu verändern. Dies führt zu Treffern auch wenn Suchbegriffe nicht exakt eingegeben werden und steigert so die Erfolgsquote. Mit Hilfe der Linguistik werden zusätzlich evtl. vorhandene Rechtschreibfehler korrigiert, oder ggf. alternative Begriffe vorgeschlagen. ("Meinten Sie?"). Der wesentliche Vorteil des Einsatzes der FAST Suchmaschine besteht aber darin, dass ein zusätzlicher Index zur Verfügung steht, der unabhängig von den internen Bibliotheksanwendungen ist. Die für die bibliotheksinternen Abläufe optimiert gespeicherten Daten können so vor der Indexierung durch die Suchmaschine verändert werden, ohne dass interne Arbeitsvorgänge davon betroffen wären. Auf diese Weise lassen sich viele, für den Benutzer nicht transparente, fachspezifische Daten aussondern oder transparenter gestalten. Das einfachste Beispiel dafür ist das Filtern von Sonderzeichen, z. B. im Erscheinungsjahr. Weiterhin können aus verschiedenen codiert gespeicherten Kategorien neue, mit sprechenden Bezeichnungen versehene Kategorien gebildet werden, z.B. für die Erscheinungsform eines Werkes. Die Bildung eines zusätzlichen Feldes "Fach" aus der in der Bibliothek verwendeten Klassifikation hat sich als effektiver Filter für die Selektion relevanter Treffer bei der Suche nach unspezifischen Suchbegriffen, wie z.B. Chaos, herausgestellt. Die Möglichkeit nach Schlagwortketten, also der Kombination von Schlagworten einzugrenzen, führt den Benutzer sehr einfach zu spezifischen Treffern und ist auch bei kleineren Treffermengen wirkungsvoll. Die Einbindung der FAST Suchmaschine in den lokalen Bibliothekskatalog bietet nicht nur eine wesentliche Verbesserung der Suchgeschwindigkeit, sondern sie eröffnet dem Benutzer durch die vielfältigen Analysemethoden der Treffer während der Anzeige auch ganz neue Wege im Umgang mit Treffermengen. Hinzu kommt, dass durch die geeignete Aufbereitung der Ausgangsdaten es nun auch möglich ist, die von der Bibliothek geleistete Sacherschließung als effektives Hilfsmittel für den Endanwender einzusetzen."
  7. Biagetti, M.T.: Pertinence perspective and OPAC enhancement 0.01
    0.014134051 = product of:
      0.084804304 = sum of:
        0.084804304 = weight(_text_:ranking in 3549) [ClassicSimilarity], result of:
          0.084804304 = score(doc=3549,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 3549, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3549)
      0.16666667 = coord(1/6)
    
    Abstract
    The starting-point of the paper is the debate recently developed in LIS literature about OPAC enhancement and the necessity to design OPACs based on search engines features. Supposed improving tools as relevance ranking and relevance feedback devices are examinated. Possible OPAC development lines, based on theoretical examination of relevance and pertinence concepts, according to Sarácevic view, and following semantics perspectives, are presented. Finally, enhancement of OPACs starting from their inner characteristics is proposed, and a plan to improve semantic search functions while maintaining existing indexing methodologies, that is document conceptual analysis, is outlined.
  8. Jochum, U.: ¬Eine Theorie der Verweisung (1998) 0.01
    0.013693287 = product of:
      0.08215972 = sum of:
        0.08215972 = product of:
          0.12323958 = sum of:
            0.072462074 = weight(_text_:29 in 2268) [ClassicSimilarity], result of:
              0.072462074 = score(doc=2268,freq=4.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.5496386 = fieldWeight in 2268, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2268)
            0.050777502 = weight(_text_:22 in 2268) [ClassicSimilarity], result of:
              0.050777502 = score(doc=2268,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38690117 = fieldWeight in 2268, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2268)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    23.10.1996 17:26:29
    12.12.1998 12:00:29
    Source
    Bibliothek: Forschung und Praxis. 22(1998) H.2, S.235-243
  9. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.01
    0.013238294 = product of:
      0.07942976 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 52) [ClassicSimilarity], result of:
          0.07942976 = score(doc=52,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 52, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
      0.16666667 = coord(1/6)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
    Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
  10. Hollender, U.: Heiliger Joseph! : Zu einem Kardinalschreibfehler in deutschen Bibliothekskatalogen (falscher *Guiseppe statt richtigem Giuseppe) (2002) 0.01
    0.012481183 = product of:
      0.0748871 = sum of:
        0.0748871 = weight(_text_:suchmaschine in 536) [ClassicSimilarity], result of:
          0.0748871 = score(doc=536,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.3533909 = fieldWeight in 536, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=536)
      0.16666667 = coord(1/6)
    
    Abstract
    In schätzungsweise jedem vierten deutschen Zeitungsartikel und InternetDokument, in dem der italienische Vorname Giuseppe enthalten ist, taucht der Fehler auf, sei nun die Rede von Verdi, Arcimboldo oder Garibaldi: Giuseppe wird falsch geschrieben, nämlich als *Guiseppe, als handele sich um eine Variante von Guido, was dem deutschen Auge offensichtlich vertrauter ist. Bemerkenswert ist, dass die Buchstaben "i" und "u° auf der Tastatur direkt nebeneinander liegen, was der Tippfehleranfälligkeit Vorschub leistet. Lässt man die Internet-Suchmaschine Google "Seiten auf deutsch" absuchen, findet sie 61.500 Giuseppes und 15.200 *Guiseppes (über 25%). Google ist übrigens seit neuestem so "intelligent', bei der falschen Eingabe zu fragen: "Meinten Sie Giuseppe?'. Schränkt man die Suchmaschine auf italienisch-sprachige Seiten ein, sinkt der Anteil der falschen Schreibweise auf 0,54 % (426.000 richtige gegen 2.330 falsche). Bei genauerem Hinsehen tauchen die meisten der Falschschreibungen bei offenbar amerikanischen dot-com-Seiten auf, die italienische Genealogien aufschlüsseln. Die genuin aus Italien stammenden Seiten weisen nur in den allerwenigsten Fällen den Fehler auf. Dieses Phänomen fiel mir als Romanistin zunächst auf, dann störte es mich, später belustigte es mich beinahe und schließlich wurde die Suche danach fast zum Spiel. Unter bibliothekarischen Gesichtspunkten ist der Fehler ein Ärgernis, hat sich doch diese falsche Schreibweise massenhaft in bibliothekarische Datenbanken eingeschlichen. Als ich schon vor Jahren eine Düsseldorfer Diplombibliothekarin darauf ansprach, widersprach diese und behauptete, es gebe sehr wohl den Namen in der Schreibweise *Guiseppe neben der - vielleicht üblicheren - Form Giuseppe. Und tatsächlich findet sich die falsche Form in manchen Vornamenbüchern - so oft schon wurde der Fehler tradiert, dass er jetzt schon legitimiert erscheint. Schlägt man hingegen in italienischen Vornamenbüchern nach, zeigt sich, dass man hier vergeblich nach *Guiseppe suchen muss.
  11. Umstätter, W.; Wagner-Döbler, R.; Löffler, K.: Einführung in die Katalogkunde : Vom Zettelkatalog zur Suchmaschine (2005) 0.01
    0.012442398 = product of:
      0.037327193 = sum of:
        0.033095732 = weight(_text_:suchmaschine in 4880) [ClassicSimilarity], result of:
          0.033095732 = score(doc=4880,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.15617819 = fieldWeight in 4880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4880)
        0.0042314585 = product of:
          0.012694376 = sum of:
            0.012694376 = weight(_text_:22 in 4880) [ClassicSimilarity], result of:
              0.012694376 = score(doc=4880,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.09672529 = fieldWeight in 4880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4880)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    22. 1.2006 19:45:49
  12. Mann, T.: ¬The changing nature of the catalog and its integration with other discovery tools. Final report. March 17, 2006. Prepared for the Library of Congress by Karen Calhoun : A critical review (2006) 0.01
    0.0121149 = product of:
      0.0726894 = sum of:
        0.0726894 = weight(_text_:ranking in 5012) [ClassicSimilarity], result of:
          0.0726894 = score(doc=5012,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 5012, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=5012)
      0.16666667 = coord(1/6)
    
    Abstract
    According to the Calhoun report, library operations that are not digital, that do not result in resources that are remotely accessible, that involve professional human judgement or expertise, or that require conceptual categorization and standardization rather than relevance ranking of keywords, do not fit into its proposed "leadership" strategy. This strategy itself, however, is based on an inappropriate business model - and a misrepresentation of that business model to begin with. The Calhoun report draws unjustified conclusions about the digital age, inflates wishful thinking, fails to make critical distinctions, and disregards (as well as mischaracterizes) an alternative "niche" strategy for research libraries, to promote scholarship (rather than increase "market position"). Its recommendations to eliminate Library of Congress Subject Headings, and to use "fast turnaround" time as the "gold standard" in cataloging, are particularly unjustified, and would have serious negative consequences for the capacity of research libraries to promote scholarly research.
  13. Whitney , C.; Schiff, L.: ¬The Melvyl Recommender Project : developing library recommendation services (2006) 0.01
    0.0121149 = product of:
      0.0726894 = sum of:
        0.0726894 = weight(_text_:ranking in 1173) [ClassicSimilarity], result of:
          0.0726894 = score(doc=1173,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 1173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=1173)
      0.16666667 = coord(1/6)
    
    Abstract
    Popular commercial on-line services such as Google, e-Bay, Amazon, and Netflix have evolved quickly over the last decade to help people find what they want, developing information retrieval strategies such as usefully ranked results, spelling correction, and recommender systems. Online library catalogs (OPACs), in contrast, have changed little and are notoriously difficult for patrons to use (University of California Libraries, 2005). Over the past year (June 2005 to the present), the Melvyl Recommender Project (California Digital Library, 2005) has been exploring methods and feasibility of closing the gap between features that library patrons want and have come to expect from information retrieval systems and what libraries are currently equipped to deliver. The project team conducted exploratory work in five topic areas: relevance ranking, auto-correction, use of a text-based discovery system, user interface strategies, and recommending. This article focuses specifically on the recommending portion of the project and potential extensions to that work.
  14. Gödert, W.: Inhaltliche Erschließung mehrbändiger Werke : oder eine Notiz zu der Frage, was wir als bibliographische Identität betrachten wollen? (1994) 0.01
    0.011335104 = product of:
      0.06801062 = sum of:
        0.06801062 = product of:
          0.10201593 = sum of:
            0.051238425 = weight(_text_:29 in 2411) [ClassicSimilarity], result of:
              0.051238425 = score(doc=2411,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38865322 = fieldWeight in 2411, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2411)
            0.050777502 = weight(_text_:22 in 2411) [ClassicSimilarity], result of:
              0.050777502 = score(doc=2411,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38690117 = fieldWeight in 2411, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2411)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    20. 4.2020 20:22:29
  15. HBZ: Aufbruch in den Suchraum (2007) 0.01
    0.011031911 = product of:
      0.066191465 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 634) [ClassicSimilarity], result of:
          0.066191465 = score(doc=634,freq=8.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=634)
      0.16666667 = coord(1/6)
    
    Content
    ""Der Weltsuchende zieht am Narrenseil", wusste Angelus Silesius im 17. Jahrhundert. Heute ist es nicht anders, unser Narrenseil ist die Internet-Suchmaschine. Dort fördert eine Frage nach dem Barockdichter weit über 100.000 Verweise zu Tage. Ausreichend wären schon die ersten zwei Dutzend. Unter anderem finden sich hier der Text des "Cherubinischen Wandersmannes", eine Kurzbiographie des Angelus und ein Antiquariat, das ein paar "dilettantisch geklebte" und "schwach stockfleckige" Insel-Bände aus dem frühen 20. Jahrhundert anbietet. Daran schließt sich die Narretei an: Zu welcher Stelle im Internet führt wohl Suchergebnis 85.493? Angezeigt werden lediglich die ersten tausend Fundstellen. Wer besucht Seiten mit seltsamen Titeln wie "The Square of Opposition: Mysticism" oder "Geist und Gnade Frühling 2000"? Wen interessiert es, dass die Universität Berkeley laut eines frei verfügbaren Anschaffungsverzeichnisses den Band "Von Gottes und des Menschen Wesen" im November 2004 angeschafft hat? Recherche für die Wissenschaft Eines ist klar: Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Er weiß meist schon, wer der Autor ist und kennt das Werk. Die Germanistikstudentin Karin Warner zum Beispiel sucht nach der Erstausgabe von "Heilige Seelen-Lust". Sie nutzt dafür den Dreiländerkatalog, der die Bestände zahlreicher Bibliotheken aus Deutschland, Österreich und der Schweiz erfasst. Der Katalog zeigt sofort mehr als ein Dutzend Fundstellen an. Auch auf die originale Erstausgabe wird verwiesen, sie liegt in der Kölner Universitätsbibliothek - und ist zu wertvoll für die Ausleihe. Doch die Studentin findet ebenfalls einen Verweis auf die Faksimileausgabe des Erstdrucks, die sie sich per Fernleihe beim "Institut für Musikwissenschaft und Musikpädagogik" der Uni Münster bestellt. In diesem Fall konnte der übergreifende Buchkatalog helfen. Doch es wären einerseits seltenere Werke denkbar und anderseits umfassendere Aufgaben. Wer etwa Sekundärliteratur zur Arbeit des wissenschaftlichen Außenseiters Fritz-Albert Popp lesen will, bekommt vom Dreiländerkatalog außer einigen populärwissenschaftlichen Büchern nicht viel angezeigt. Auch ein Verweis auf Webseiten oder Fachdatenbanken fehlt. Hier ist also noch vieles wünsch- und denkbar.
    Wünsche an die Supersuchmaschine Ein erster Wunsch aus Lesersicht lautet: Endlich her mit dem Gesamtkatalog aller deutschsprachigen Bibliotheken inklusive sämtlicher Artikel der Wissenschaftszeitschriften. Und es sollten auch gleich die Inhaltsverzeichnisse der Bücher mit rein, sowie ein paar Leseproben und was die deutschen Verlage sonst noch kostenlos im Internet anbieten. Noch ein Wunsch: Schön wäre ein Zugriff auf die Bestände der Pressearchive, die bis in die 1990er Jahre zurückreichen. Und ebenso auf Fachdatenbanken wie die ECONIS-Bibliographie der Wirtschaftswissenschaftler oder die Bestände der Deutschen Zentralbibliothek für Medizin. Auch das so genannte "Deep Web" gehört in diese Supersuchmaschine: Diejenigen wissenschaftlichen Fachdatenbanken, die z.B. im vascoda-Projekt zusammengetragen werden und die bei herkömmlichen Internet-Suchmaschinen in der Regel nicht erscheinen. In der Realität existiert eine solche virtuelle Metabibliothek wenigstens schon in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu etwas, das sich am besten mit "gemeinsamer Suchraum" umschreiben lässt. Technisch gesehen ist er ein riesiger Index ausgewählter und auf Qualität geprüfter Datenquellen, der auf eine Anfrage innerhalb von Millisekunden Ergebnisse auswirft. Ausblick auf den Suchraum Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie die Daten der beteiligten Datenquellen zu einem optimierten Index zusammen, der sehr schnell durchsucht werden kann. Er verbindet dadurch zwei Vorteile: Die Benutzer müssen nur noch eine Datenbasis durchsuchen und erhalten die Ergebnisse bereits nach wenigen Millisekunden. Aus der Sicht der Benutzer ist er eine rein wissenschaftliche Suchmaschine. Diese liefert als zentrale Anlaufstelle relevante Informationen, die diesen Ehrentitel auch verdienen: Wo sind die Erstdrucke archiviert, in welchen Zeitschriften sind Forschungstexte erschienen, bei welchen Bibliotheken finde ich die Fachliteratur, welche Websites informieren über den aktuellen Forschungsstand, wo gibt es Diskussionslisten oder vielleicht sogar einen dem Thema gewidmeten Lehrstuhl? Dank einer Anbindung an die vorhandene Portal-Lösung "DigiBib - Die Digitale Bibliothek" kann die Literatur direkt oder per Fernleihe in der hiesigen Bibliothek bestellt werden - auch Aufsätze aus Zeitschriften. Der Kauf im Buchhandel ist ebenso möglich wie eine automatische Abrechnung von Gebühren, denn einige Datendienste sind kostenpflichtig. Der Software für den gemeinsamen Suchraum ist außerdem bekannt, ob der Anwender alle Inhalte nutzen darf und ob er nur bestimmte Dokumente abrufen kann.
    Technik als Voraussetzung Zurzeit ist das noch Zukunftsmusik. Wer eine wirklich umfassende wissenschaftliche Recherche im Internet startet, muss neben dem Dreiländerkatalog und vascoda.de wenigstens die Portale verschiedener Anbieter von Zeitschriften und Datenbanken wie Elsevier, STN International oder Genios besuchen. Außerdem ist es hilfreich, direkt bei Forschungsinstituten und Unis nach dem gewünschten Thema zu suchen. Bis zum Erreichen des Suchraums liegen noch viele Hindernisse auf dem Weg. Die technischen Hürden sind dabei beinahe am leichtesten zu überwinden: Die Software ist prinzipiell bereits vorhanden. Es ist eine Standardsuchmaschine, die speziell an die Erfordernisse des Suchraums angepasst wird. Ergänzt wird diese Maschine durch allerlei An- und Aufbauten, die eine komfortable Bestellung ermöglichen, Benutzerkonten für lizenzierte Fachdatenbanken führen und eine einfache Benutzeroberfläche im Web anbieten. Also reichen ein Dutzend Programmierer und ein paar Monate Zeit, und der Suchraum ist aufgebaut? Leider nein, etwas Wichtiges fehlt ihm noch: Die Möblierung mit Bibliotheks- und Fachdatenbanken sowie den Datenbeständen aus dem Deep Web. Hierbei sind immer möglichst alle Datenquellen dieser Art gemeint - ein erster Hinweis auf eine wichtige Voraussetzung. Kooperation als Notwendigkeit Der gemeinsame Suchraum kann nur durch eine - inhaltlich und geografisch - weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Ohne eine solche Zusammenarbeit kann weder der Index als Basis für die Suche entstehen noch gibt es Übergänge zu den eigentlichen Daten. Die größte Aufgabe beim Bau des Suchraums wird seine Einrichtung mit Datenbanken, Bibliografien und Webkatalogen sein. Dabei müssen gleichzeitig die Bedürfnisse von Wissenschaftlern, Bibliotheken und kommerziellen Anbietern berücksichtigt werden. Dieses Ziel wird nicht schon innerhalb einiger Monate erreicht, doch die Grundlagen wurden bereits vom hbz gelegt. Der Aufbruch in den Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  16. Blenkle, M.; Ellis, R.; Haake, E.: E-LIB Bremen : Automatische Empfehlungsdienste für Fachdatenbanken im Bibliothekskatalog / Metadatenpools als Wissensbasis für bestandsunabhängige Services (2009) 0.01
    0.011031911 = product of:
      0.066191465 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 2479) [ClassicSimilarity], result of:
          0.066191465 = score(doc=2479,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 2479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2479)
      0.16666667 = coord(1/6)
    
    Content
    "... Typische Vorteile einer Suchmaschine unter Nutzung eines lokalen Gesamtindexes sind die hohe Antwortgeschwindigkeit, die homogene Trefferpräsentation und eine ausgewogene Gewichtung aller Ressourcen. Die lokale Datensammlung eröffnet darüber hinaus Möglichkeiten, die vorhandenen Nachweise als Wissensbasis für neue Verfahren der Treffermengenanalyse zu nutzen, die während der Suche auf der Menge der Resultate prozessiert werden können. Dazu gehören z.B. klassische Drill-Down-Techniken, die nachträglich eine formale und inhaltliche Filterung erzielter Treffersets erlauben und die bereits in vielen modernen Suchmaschinen zum Standard gehören. ..."
  17. Lügger, J.: Neustart für Bibliotheken ins Informationszeitalter (2006) 0.01
    0.010095751 = product of:
      0.0605745 = sum of:
        0.0605745 = weight(_text_:ranking in 889) [ClassicSimilarity], result of:
          0.0605745 = score(doc=889,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.29880944 = fieldWeight in 889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=889)
      0.16666667 = coord(1/6)
    
    Abstract
    Wir erleben zu Beginn des aufkommenden Informationszeitalters mit dem Siegeszug von Google und anderen Internet-Technologien einen Wandel im Verhalten von Wissenschaftlern und Studenten, der mit dem Einsatz von Google Scholar und Google Book Search einem Paradigmenwechsel für Bibliotheken und Informationsversorger gleichkommt. Der Artikel untersucht die technischen Hintergründe für den Erfolg dieser besonderen Art des Information Retrievals: Fulltext Indexing und Citation Ranking als besondere Form des Information Mining. Er diskutiert Stärken und auch Schwächen des Google-Ansatzes. Der Autor stellt sich auch der Frage, unter welchen Bedingungen es möglich ist, ein zu Google Scholar und der Google Book Search konkurrenzfähiges Retrieval in der Landschaft der Bibliotheken und Bibliotheksverbünde zu errichten. Die These ist, dass dieses unter Einsatz des Open Source Indexierers Lucene und des Web-Robots Nutch möglich ist. Bibliotheken können durch gezielten Einsatz solcher Internet-Technologien dem Nutzer die Leistungen, welche Google uns mit seinen Tools im Visible Web und mit Referenzen auf Citations in der Welt der Literatur zur Verfügung stellt, in vergleichbarer Art auch für ihre eigenen durch Lizenzen geschützten digitalen Journale und ihre speziellen lokal verfügbaren Ressourcen, auf die Internet-Suchmaschinen keine Zugriff haben, anbieten. Es besteht die Hoffnung, dass Nutzer dann nicht - wie in einer kürzlich erschienenen Studie des OCLC konstatiert - überwiegend im Internet verbleiben, sondern bei ihrer Suche auch den Weg zu den Angeboten der örtlichen Bibliothek attraktiv finden.
  18. Schürmann, H.: Sacherschliessung nach RDA (2015) 0.01
    0.010095751 = product of:
      0.0605745 = sum of:
        0.0605745 = weight(_text_:ranking in 1831) [ClassicSimilarity], result of:
          0.0605745 = score(doc=1831,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.29880944 = fieldWeight in 1831, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1831)
      0.16666667 = coord(1/6)
    
    Abstract
    "Fazit: Die Sacherschliessung im Bibliothekskontext richtet sich nach dem Angebot und dem Zugang, den die Bibliothek bietet. Ein Regelwerk muss so gestaltet sein, dass die Bibliothek die Erschliessungstiefe selbst bestimmen kann. Im Datenaustausch macht dann die Übernahme von Fremddaten nur unter ähnlichen Bibliotheken Sinn. Metakataloge können keine sinnvollen Facetten anbieten, hier muss ein Relevanz-Ranking genügen. Dasselbe gilt für die Discovery Tools, in denen Quellen mit verschiedenen Erschliessungssystemen unter einer Oberfläche suchbar gemacht werden. In Kombination mit den Daten der Formalerschliessung sollen hingegen auch bei den Discovery Tools Filter so gestaltet sein, dass in spezifischen Beständen, die intellektuell sachlich erschlossen sind, ein Index der Schlagwörter als Themenfacetten angezeigt und genutzt werden kann. Die RDA wird dafür den Rahmen geben müssen."
  19. Hilberer, T.: Numerus currens und iPod : die Organisation von Information mittels Metadaten und die Aufgabe der Bibliotheken im digitalen Zeitalter oder Die Kraft der digitalen Ordnung (2011) 0.01
    0.009585301 = product of:
      0.057511806 = sum of:
        0.057511806 = product of:
          0.08626771 = sum of:
            0.050723456 = weight(_text_:29 in 162) [ClassicSimilarity], result of:
              0.050723456 = score(doc=162,freq=4.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.38474706 = fieldWeight in 162, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=162)
            0.03554425 = weight(_text_:22 in 162) [ClassicSimilarity], result of:
              0.03554425 = score(doc=162,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 162, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=162)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 5.2012 13:58:08
    29. 5.2012 14:10:37
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  20. Visintin, G.: Passaggi (1998) 0.01
    0.009068082 = product of:
      0.05440849 = sum of:
        0.05440849 = product of:
          0.081612736 = sum of:
            0.04099074 = weight(_text_:29 in 3053) [ClassicSimilarity], result of:
              0.04099074 = score(doc=3053,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.31092256 = fieldWeight in 3053, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3053)
            0.040622 = weight(_text_:22 in 3053) [ClassicSimilarity], result of:
              0.040622 = score(doc=3053,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.30952093 = fieldWeight in 3053, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3053)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 1.1996 17:18:10
    22. 2.1999 20:40:57

Years

Languages

  • e 50
  • d 29
  • f 2
  • i 1
  • sp 1
  • More… Less…

Types

  • a 78
  • el 4
  • m 4
  • b 3
  • s 1
  • x 1
  • More… Less…