Search (178 results, page 1 of 9)

  • × theme_ss:"Katalogfragen allgemein"
  1. Schneider, R.: OPACs, Benutzer und das Web (2009) 0.06
    0.05801937 = product of:
      0.29009685 = sum of:
        0.1185931 = sum of:
          0.03642908 = weight(_text_:online in 2905) [ClassicSimilarity], result of:
            0.03642908 = score(doc=2905,freq=4.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.37936267 = fieldWeight in 2905, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
          0.08216401 = weight(_text_:recherche in 2905) [ClassicSimilarity], result of:
            0.08216401 = score(doc=2905,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.47908637 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
        0.059572253 = weight(_text_:web in 2905) [ClassicSimilarity], result of:
          0.059572253 = score(doc=2905,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5769126 = fieldWeight in 2905, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=2905)
        0.111931495 = sum of:
          0.07763624 = weight(_text_:analyse in 2905) [ClassicSimilarity], result of:
            0.07763624 = score(doc=2905,freq=2.0), product of:
              0.16670908 = queryWeight, product of:
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.031640913 = queryNorm
              0.46569893 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.268782 = idf(docFreq=618, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
          0.034295253 = weight(_text_:22 in 2905) [ClassicSimilarity], result of:
            0.034295253 = score(doc=2905,freq=2.0), product of:
              0.110801086 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.031640913 = queryNorm
              0.30952093 = fieldWeight in 2905, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=2905)
      0.2 = coord(3/15)
    
    Abstract
    Der Artikel betrachtet anhand einer Studie zum Benutzerverhalten bei der Online-Katalogrecherche den gegenwärtigen Stellenwert und das zukünftige Potential der Web-OPACs. Dabei werden zunächst die Ergebnisse einer quantitativen Logfile-Analyse sowie qualitativer Benutzertests erörtert, bevor aktuelle Entwicklungen der Webtechnologie, die unter den Schlagworten Web 2.0 und Web 3.0 propagiert werden, im Zusammenhang mit der Online-Recherche und der Entwicklung neuartiger Suchverfahren kurz diskutiert werden.
    Date
    22. 2.2009 18:50:43
  2. Voß, J.; Hellmich, J.: »Am Kerngeschäft der Bibliothekare kann sich plötzlich jeder beteiligen« (2007) 0.03
    0.031184146 = product of:
      0.15592073 = sum of:
        0.091344655 = weight(_text_:soziale in 397) [ClassicSimilarity], result of:
          0.091344655 = score(doc=397,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.47251827 = fieldWeight in 397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.03851321 = weight(_text_:software in 397) [ClassicSimilarity], result of:
          0.03851321 = score(doc=397,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30681872 = fieldWeight in 397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.026062861 = weight(_text_:web in 397) [ClassicSimilarity], result of:
          0.026062861 = score(doc=397,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
      0.2 = coord(3/15)
    
    Abstract
    Der Wikipedia-Experte Jakob Voß plädiert dafür, Opacs mit Inhalten aus Wikis, Weblogs und Bookmarking-Diensten anzureichern Auf dem Leipziger Bibliothekskongress hat Jakob Voß einen Vortrag zum Thema »Soziale Software - Hype oder Verheißung?« gehalten - und damit eine der bestbesuchten Veranstaltungen eingeleitet. Der 28-Jährige hat Informatik, Bibliothekswissenschaft und Philosophie in Chemnitz und Berlin studiert und arbeitet als Entwickler beim Gemeinsamen Bibliotheksverbund GBV in Göttingen. Seit 2002 gehörter zum Vorstand von Wikimedia Deutschland, einem »Verein zur Förderung des freien Wissens«, dessen prominentestes Förderprojekt die Web-Enzyklopädie Wikipedia ist. BuB-Redakteurin Julia Hellmich hat Jakob Voß in Leipzig interviewt.
  3. HBZ: Aufbruch in den Suchraum (2007) 0.03
    0.029230012 = product of:
      0.10961254 = sum of:
        0.05588236 = weight(_text_:suchmaschine in 634) [ClassicSimilarity], result of:
          0.05588236 = score(doc=634,freq=8.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.31235638 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=634)
        0.018155854 = product of:
          0.03631171 = sum of:
            0.03631171 = weight(_text_:recherche in 634) [ClassicSimilarity], result of:
              0.03631171 = score(doc=634,freq=4.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.21172827 = fieldWeight in 634, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=634)
          0.5 = coord(1/2)
        0.01945211 = weight(_text_:software in 634) [ClassicSimilarity], result of:
          0.01945211 = score(doc=634,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15496688 = fieldWeight in 634, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=634)
        0.016122214 = weight(_text_:web in 634) [ClassicSimilarity], result of:
          0.016122214 = score(doc=634,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.15613155 = fieldWeight in 634, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=634)
      0.26666668 = coord(4/15)
    
    Content
    ""Der Weltsuchende zieht am Narrenseil", wusste Angelus Silesius im 17. Jahrhundert. Heute ist es nicht anders, unser Narrenseil ist die Internet-Suchmaschine. Dort fördert eine Frage nach dem Barockdichter weit über 100.000 Verweise zu Tage. Ausreichend wären schon die ersten zwei Dutzend. Unter anderem finden sich hier der Text des "Cherubinischen Wandersmannes", eine Kurzbiographie des Angelus und ein Antiquariat, das ein paar "dilettantisch geklebte" und "schwach stockfleckige" Insel-Bände aus dem frühen 20. Jahrhundert anbietet. Daran schließt sich die Narretei an: Zu welcher Stelle im Internet führt wohl Suchergebnis 85.493? Angezeigt werden lediglich die ersten tausend Fundstellen. Wer besucht Seiten mit seltsamen Titeln wie "The Square of Opposition: Mysticism" oder "Geist und Gnade Frühling 2000"? Wen interessiert es, dass die Universität Berkeley laut eines frei verfügbaren Anschaffungsverzeichnisses den Band "Von Gottes und des Menschen Wesen" im November 2004 angeschafft hat? Recherche für die Wissenschaft Eines ist klar: Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Er weiß meist schon, wer der Autor ist und kennt das Werk. Die Germanistikstudentin Karin Warner zum Beispiel sucht nach der Erstausgabe von "Heilige Seelen-Lust". Sie nutzt dafür den Dreiländerkatalog, der die Bestände zahlreicher Bibliotheken aus Deutschland, Österreich und der Schweiz erfasst. Der Katalog zeigt sofort mehr als ein Dutzend Fundstellen an. Auch auf die originale Erstausgabe wird verwiesen, sie liegt in der Kölner Universitätsbibliothek - und ist zu wertvoll für die Ausleihe. Doch die Studentin findet ebenfalls einen Verweis auf die Faksimileausgabe des Erstdrucks, die sie sich per Fernleihe beim "Institut für Musikwissenschaft und Musikpädagogik" der Uni Münster bestellt. In diesem Fall konnte der übergreifende Buchkatalog helfen. Doch es wären einerseits seltenere Werke denkbar und anderseits umfassendere Aufgaben. Wer etwa Sekundärliteratur zur Arbeit des wissenschaftlichen Außenseiters Fritz-Albert Popp lesen will, bekommt vom Dreiländerkatalog außer einigen populärwissenschaftlichen Büchern nicht viel angezeigt. Auch ein Verweis auf Webseiten oder Fachdatenbanken fehlt. Hier ist also noch vieles wünsch- und denkbar.
    Wünsche an die Supersuchmaschine Ein erster Wunsch aus Lesersicht lautet: Endlich her mit dem Gesamtkatalog aller deutschsprachigen Bibliotheken inklusive sämtlicher Artikel der Wissenschaftszeitschriften. Und es sollten auch gleich die Inhaltsverzeichnisse der Bücher mit rein, sowie ein paar Leseproben und was die deutschen Verlage sonst noch kostenlos im Internet anbieten. Noch ein Wunsch: Schön wäre ein Zugriff auf die Bestände der Pressearchive, die bis in die 1990er Jahre zurückreichen. Und ebenso auf Fachdatenbanken wie die ECONIS-Bibliographie der Wirtschaftswissenschaftler oder die Bestände der Deutschen Zentralbibliothek für Medizin. Auch das so genannte "Deep Web" gehört in diese Supersuchmaschine: Diejenigen wissenschaftlichen Fachdatenbanken, die z.B. im vascoda-Projekt zusammengetragen werden und die bei herkömmlichen Internet-Suchmaschinen in der Regel nicht erscheinen. In der Realität existiert eine solche virtuelle Metabibliothek wenigstens schon in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu etwas, das sich am besten mit "gemeinsamer Suchraum" umschreiben lässt. Technisch gesehen ist er ein riesiger Index ausgewählter und auf Qualität geprüfter Datenquellen, der auf eine Anfrage innerhalb von Millisekunden Ergebnisse auswirft. Ausblick auf den Suchraum Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie die Daten der beteiligten Datenquellen zu einem optimierten Index zusammen, der sehr schnell durchsucht werden kann. Er verbindet dadurch zwei Vorteile: Die Benutzer müssen nur noch eine Datenbasis durchsuchen und erhalten die Ergebnisse bereits nach wenigen Millisekunden. Aus der Sicht der Benutzer ist er eine rein wissenschaftliche Suchmaschine. Diese liefert als zentrale Anlaufstelle relevante Informationen, die diesen Ehrentitel auch verdienen: Wo sind die Erstdrucke archiviert, in welchen Zeitschriften sind Forschungstexte erschienen, bei welchen Bibliotheken finde ich die Fachliteratur, welche Websites informieren über den aktuellen Forschungsstand, wo gibt es Diskussionslisten oder vielleicht sogar einen dem Thema gewidmeten Lehrstuhl? Dank einer Anbindung an die vorhandene Portal-Lösung "DigiBib - Die Digitale Bibliothek" kann die Literatur direkt oder per Fernleihe in der hiesigen Bibliothek bestellt werden - auch Aufsätze aus Zeitschriften. Der Kauf im Buchhandel ist ebenso möglich wie eine automatische Abrechnung von Gebühren, denn einige Datendienste sind kostenpflichtig. Der Software für den gemeinsamen Suchraum ist außerdem bekannt, ob der Anwender alle Inhalte nutzen darf und ob er nur bestimmte Dokumente abrufen kann.
    Technik als Voraussetzung Zurzeit ist das noch Zukunftsmusik. Wer eine wirklich umfassende wissenschaftliche Recherche im Internet startet, muss neben dem Dreiländerkatalog und vascoda.de wenigstens die Portale verschiedener Anbieter von Zeitschriften und Datenbanken wie Elsevier, STN International oder Genios besuchen. Außerdem ist es hilfreich, direkt bei Forschungsinstituten und Unis nach dem gewünschten Thema zu suchen. Bis zum Erreichen des Suchraums liegen noch viele Hindernisse auf dem Weg. Die technischen Hürden sind dabei beinahe am leichtesten zu überwinden: Die Software ist prinzipiell bereits vorhanden. Es ist eine Standardsuchmaschine, die speziell an die Erfordernisse des Suchraums angepasst wird. Ergänzt wird diese Maschine durch allerlei An- und Aufbauten, die eine komfortable Bestellung ermöglichen, Benutzerkonten für lizenzierte Fachdatenbanken führen und eine einfache Benutzeroberfläche im Web anbieten. Also reichen ein Dutzend Programmierer und ein paar Monate Zeit, und der Suchraum ist aufgebaut? Leider nein, etwas Wichtiges fehlt ihm noch: Die Möblierung mit Bibliotheks- und Fachdatenbanken sowie den Datenbeständen aus dem Deep Web. Hierbei sind immer möglichst alle Datenquellen dieser Art gemeint - ein erster Hinweis auf eine wichtige Voraussetzung. Kooperation als Notwendigkeit Der gemeinsame Suchraum kann nur durch eine - inhaltlich und geografisch - weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Ohne eine solche Zusammenarbeit kann weder der Index als Basis für die Suche entstehen noch gibt es Übergänge zu den eigentlichen Daten. Die größte Aufgabe beim Bau des Suchraums wird seine Einrichtung mit Datenbanken, Bibliografien und Webkatalogen sein. Dabei müssen gleichzeitig die Bedürfnisse von Wissenschaftlern, Bibliotheken und kommerziellen Anbietern berücksichtigt werden. Dieses Ziel wird nicht schon innerhalb einiger Monate erreicht, doch die Grundlagen wurden bereits vom hbz gelegt. Der Aufbruch in den Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  4. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.03
    0.026897993 = product of:
      0.100867465 = sum of:
        0.046136018 = weight(_text_:soziale in 1847) [ClassicSimilarity], result of:
          0.046136018 = score(doc=1847,freq=4.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.23865776 = fieldWeight in 1847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.030756485 = weight(_text_:software in 1847) [ClassicSimilarity], result of:
          0.030756485 = score(doc=1847,freq=10.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.24502413 = fieldWeight in 1847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.01861633 = weight(_text_:web in 1847) [ClassicSimilarity], result of:
          0.01861633 = score(doc=1847,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 1847, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0053586336 = product of:
          0.010717267 = sum of:
            0.010717267 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
              0.010717267 = score(doc=1847,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.09672529 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Theme
    Semantic Web
  5. DeZelar-Tiedman, V.: Doing the LibraryThing(TM) in an academic library catalog (2008) 0.02
    0.024605988 = product of:
      0.092272446 = sum of:
        0.00910727 = product of:
          0.01821454 = sum of:
            0.01821454 = weight(_text_:online in 2666) [ClassicSimilarity], result of:
              0.01821454 = score(doc=2666,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.18968134 = fieldWeight in 2666, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2666)
          0.5 = coord(1/2)
        0.014893063 = weight(_text_:web in 2666) [ClassicSimilarity], result of:
          0.014893063 = score(doc=2666,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.14422815 = fieldWeight in 2666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=2666)
        0.0596983 = weight(_text_:site in 2666) [ClassicSimilarity], result of:
          0.0596983 = score(doc=2666,freq=4.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.343397 = fieldWeight in 2666, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.03125 = fieldNorm(doc=2666)
        0.008573813 = product of:
          0.017147627 = sum of:
            0.017147627 = weight(_text_:22 in 2666) [ClassicSimilarity], result of:
              0.017147627 = score(doc=2666,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.15476047 = fieldWeight in 2666, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2666)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    Many libraries and other cultural institutions are incorporating Web 2.0 features and enhanced metadata into their catalogs (Trant 2006). These value-added elements include those typically found in commercial and social networking sites, such as book jacket images, reviews, and usergenerated tags. One such site that libraries are exploring as a model is LibraryThing (www.librarything.com) LibraryThing is a social networking site that allows users to "catalog" their own book collections. Members can add tags and reviews to records for books, as well as engage in online discussions. In addition to its service for individuals, LibraryThing offers a feebased service to libraries, where institutions can add LibraryThing tags, recommendations, and other features to their online catalog records. This poster will present data analyzing the quality and quantity of the metadata that a large academic library would expect to gain if utilizing such a service, focusing on the overlap between titles found in the library's catalog and in LibraryThing's database, and on a comparison between the controlled subject headings in the former and the user-generated tags in the latter. During February through April 2008, a random sample of 383 titles from the University of Minnesota Libraries catalog was searched in LibraryThing. Eighty works, or 21 percent of the sample, had corresponding records available in LibraryThing. Golder and Huberman (2006) outline the advantages and disadvantages of using controlled vocabulary for subject access to information resources versus the growing trend of tags supplied by users or by content creators. Using the 80 matched records from the sample, comparisons were made between the user-supplied tags in LibraryThing (social tags) and the subject headings in the library catalog records (controlled vocabulary system). In the library records, terms from all 6XX MARC fields were used. To make a more meaningful comparison, controlled subject terms were broken down into facets according to their headings and subheadings, and each unique facet counted separately. A total of 227 subject terms were applied to the 80 catalog records, an average of 2.84 per record. In LibraryThing, 698 tags were applied to the same 80 titles, an average of 8.73 per title. The poster will further explore the relationships between the terms applied in each source, and identify where overlaps and complementary levels of access occur.
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  6. Binder, W.: Quo vadis Online-Katalog? : Resümees und Zukunftsperspektiven (1989) 0.02
    0.021028278 = product of:
      0.10514139 = sum of:
        0.022308165 = product of:
          0.04461633 = sum of:
            0.04461633 = weight(_text_:online in 366) [ClassicSimilarity], result of:
              0.04461633 = score(doc=366,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.4646225 = fieldWeight in 366, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=366)
          0.5 = coord(1/2)
        0.0440151 = weight(_text_:software in 366) [ClassicSimilarity], result of:
          0.0440151 = score(doc=366,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.35064998 = fieldWeight in 366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=366)
        0.03881812 = product of:
          0.07763624 = sum of:
            0.07763624 = weight(_text_:analyse in 366) [ClassicSimilarity], result of:
              0.07763624 = score(doc=366,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.46569893 = fieldWeight in 366, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0625 = fieldNorm(doc=366)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Auf dem Hintergrund der aktuellen OPAC-Entwicklung in Deutschland werden im ersten Teil einzelne Aspekte des OPAC-Designs kommentiert. Es wird u.a. auch auf Möglichkeiten einer Standardisierung der Schnittstelle Retrieval-Software / Benutzeroberfläche eingegangen. Die derzeit dominierenden Online-Kataloge sind für eine Massenbenutzung nur bedingt geeignet, da sie in hohem Maße fehlerintolerant sind, eine Analyse nach Suchfeldern verlangen und mit grundsätzlichen Mängeln der Boole'schen Suchlogik behaftet sind. Im zweiten Teil werden werden Alternativen diskutiert, zum einen in Form eines alphabetisch sortierten Online-Katalogs, zum anderen in Form intelligenter bibliographischer Auskunftssysteme, die Ähnlichkeitssuchen bzw. sog. 'Closest-Match-Suchen' gestatten. Hierzu werden verschiedene Konzepte und Vorschläge vorgestellt
  7. Weber, A.: "HeiIFASTen" - Entschlacken mit Leistungsgewinn : Neue Möglichkeiten für Bibliothekskataloge durch den Einsatz von Suchmaschinentechnologie (2007) 0.02
    0.02098732 = product of:
      0.1049366 = sum of:
        0.07497405 = weight(_text_:suchmaschine in 401) [ClassicSimilarity], result of:
          0.07497405 = score(doc=401,freq=10.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.41907007 = fieldWeight in 401, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=401)
        0.015405752 = product of:
          0.030811504 = sum of:
            0.030811504 = weight(_text_:recherche in 401) [ClassicSimilarity], result of:
              0.030811504 = score(doc=401,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.17965738 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=401)
          0.5 = coord(1/2)
        0.014556794 = product of:
          0.029113589 = sum of:
            0.029113589 = weight(_text_:analyse in 401) [ClassicSimilarity], result of:
              0.029113589 = score(doc=401,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.1746371 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "Der Einsatz von Suchmaschinentechnologie in Bibliothekskatalogen hat bewiesen, dass durch optimierte Indexierungsverfahren Verbesserungen der Informationsversorgung für Bibliotheksbenutzer erreicht werden. Im Dezember 2006 wurde das lokale Bibliotheksportal "SISIS-InfoGuide" von OCLC PICA um eine auf FAST Technologie basierende Suchmaschine erweitert. Die Investition des Freistaates Bayern in eine Landeslizenz für den Einsatz von FAST in den Bayerischen Universitätsbibliotheken hat sich ausgezahlt. Nachfolgend werden einige der Vorteile kurz skizziert, die sich aus dieser Erweiterung ergeben haben. Am deutlichsten ist die Auswirkung dieser Technik bei den Antwortzeiten. Insbesondere die Suche nach häufig in den Bibliotheksdaten vorkommenden Begriffen, z.B. Deutschland oder Geschichte, werden selbst sehr große Treffermengen in Bruchteilen von Sekunden geliefert. Das Scheitern von Abfragen wegen erreichter Zeitlimits gehört damit der Vergangenheit an. Aus dieser Tatsache ergibt sich auch, dass Benutzer nicht mehr spezifisch suchen müssen, da nun auch große Treffermengen in kurzer Zeit präsentiert werden. Das alleine wäre kein Vorteil, wenn nicht auch Methoden zur Verfügung gestellt würden, mit diesen Treffermengen umzugehen. Auch hier liefert die Suchmaschinentechnologie adäquate Hilfsmittel, die so genannten "Drill Downs". Bestimmte, vordefinierte Felder werden beim Aufbau der Trefferlisten analysiert und die Feldinhalte nach Häufigkeit sortiert als Sucheinschränkung angeboten. Die Eingrenzung auf eine Sprache, einen Erscheinungszeitraum oder ein bestimmtes Schlagwort ist so mit einem einzigen Mausklick möglich. Die daraus neu entstehende Treffermenge wird wiederum dieser Analyse unterworfen. Mit wenigen Mausklicks gelangt der Benutzer so von einem allgemeinen Ergebnis zu einer überschaubaren Menge an Treffern Standardmäßig werden die Treffer nicht mehr nach dem Alphabet oder Erscheinungsjahren sortiert, sondern es wird aus dem Vorkommen der Suchmuster in den Elementen der Katalogaufnahme und dem Erscheinungsjahr eine Relevanz ermittelt. Wie bei Internetsuchmaschinen gewohnt, werden die Treffer, die der Suchanfrage am besten entsprechen, in der Trefferliste ganz oben präsentiert,. Weiterhin ermöglicht die FAST Technologie eine Ähnlichkeitssuche, die auf Dokumentvektoren aufbaut. Diese werden an Hand statistischer Verfahren für das zu indexierende Dokument errechnet. Die Ermittlung von Ähnlichkeiten wird auf die erstellte Treffermenge angewendet und erlaubt sowohl Einschränkungen als auch Ausweitungen der ermittelten Suchergebnisse.
    Eine zusätzliche Unterstützung der Recherche bietet die auf Wörterbüchern basierende linguistische Komponente der Suchmaschine. Die Begriffe werden beim Indexieren der Daten lemmatisiert - also auf eine Grundform zurückgeführt. Bei der Eingabe der Suchanfrage werden dieselben linguistischen Methoden verwendet, um die eingegebenen Begriffe der Suchanfrage zu analysieren und ggf. auf die im Index enthaltene Form zu verändern. Dies führt zu Treffern auch wenn Suchbegriffe nicht exakt eingegeben werden und steigert so die Erfolgsquote. Mit Hilfe der Linguistik werden zusätzlich evtl. vorhandene Rechtschreibfehler korrigiert, oder ggf. alternative Begriffe vorgeschlagen. ("Meinten Sie?"). Der wesentliche Vorteil des Einsatzes der FAST Suchmaschine besteht aber darin, dass ein zusätzlicher Index zur Verfügung steht, der unabhängig von den internen Bibliotheksanwendungen ist. Die für die bibliotheksinternen Abläufe optimiert gespeicherten Daten können so vor der Indexierung durch die Suchmaschine verändert werden, ohne dass interne Arbeitsvorgänge davon betroffen wären. Auf diese Weise lassen sich viele, für den Benutzer nicht transparente, fachspezifische Daten aussondern oder transparenter gestalten. Das einfachste Beispiel dafür ist das Filtern von Sonderzeichen, z. B. im Erscheinungsjahr. Weiterhin können aus verschiedenen codiert gespeicherten Kategorien neue, mit sprechenden Bezeichnungen versehene Kategorien gebildet werden, z.B. für die Erscheinungsform eines Werkes. Die Bildung eines zusätzlichen Feldes "Fach" aus der in der Bibliothek verwendeten Klassifikation hat sich als effektiver Filter für die Selektion relevanter Treffer bei der Suche nach unspezifischen Suchbegriffen, wie z.B. Chaos, herausgestellt. Die Möglichkeit nach Schlagwortketten, also der Kombination von Schlagworten einzugrenzen, führt den Benutzer sehr einfach zu spezifischen Treffern und ist auch bei kleineren Treffermengen wirkungsvoll. Die Einbindung der FAST Suchmaschine in den lokalen Bibliothekskatalog bietet nicht nur eine wesentliche Verbesserung der Suchgeschwindigkeit, sondern sie eröffnet dem Benutzer durch die vielfältigen Analysemethoden der Treffer während der Anzeige auch ganz neue Wege im Umgang mit Treffermengen. Hinzu kommt, dass durch die geeignete Aufbereitung der Ausgangsdaten es nun auch möglich ist, die von der Bibliothek geleistete Sacherschließung als effektives Hilfsmittel für den Endanwender einzusetzen."
  8. Oberhauser, O.: Card-image public access catalogues (CIPACs) : an international survey (2003) 0.02
    0.018359689 = product of:
      0.09179844 = sum of:
        0.011269671 = product of:
          0.022539342 = sum of:
            0.022539342 = weight(_text_:online in 4179) [ClassicSimilarity], result of:
              0.022539342 = score(doc=4179,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23471867 = fieldWeight in 4179, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4179)
          0.5 = coord(1/2)
        0.05446591 = weight(_text_:software in 4179) [ClassicSimilarity], result of:
          0.05446591 = score(doc=4179,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43390724 = fieldWeight in 4179, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4179)
        0.026062861 = weight(_text_:web in 4179) [ClassicSimilarity], result of:
          0.026062861 = score(doc=4179,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 4179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4179)
      0.2 = coord(3/15)
    
    Abstract
    This paper surveys card-image public access catalogues (CIPACs) - online library catalogues based an databases of digitised catalogue cards and more or less sophisticated mechanisms for browsing or searching. Solutions of this kind have been implemented by a number of libraries in various countries since the mid-1990s, mainly as inexpensive altematives to a full retrospective conversion of their old catalogues. The article presents a Web page dedicated to CIPACs, identifies and describes four main categories of interface software for such catalogues, and provides a comparative overview of 50 CIPACs in 11 countries, looking at aspects such as geographical distribution, growth and size, software, number of catalogues, processing and index creation, navigation, image formats, and other features.
  9. hbz: ¬Das Suchraum-Konzept (2007) 0.01
    0.013019457 = product of:
      0.09764592 = sum of:
        0.07902959 = weight(_text_:suchmaschine in 310) [ClassicSimilarity], result of:
          0.07902959 = score(doc=310,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.44173864 = fieldWeight in 310, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
        0.01861633 = weight(_text_:web in 310) [ClassicSimilarity], result of:
          0.01861633 = score(doc=310,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
      0.13333334 = coord(2/15)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.01
    0.012684832 = product of:
      0.09513624 = sum of:
        0.06602265 = weight(_text_:software in 181) [ClassicSimilarity], result of:
          0.06602265 = score(doc=181,freq=8.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.525975 = fieldWeight in 181, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
        0.029113589 = product of:
          0.058227178 = sum of:
            0.058227178 = weight(_text_:analyse in 181) [ClassicSimilarity], result of:
              0.058227178 = score(doc=181,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.3492742 = fieldWeight in 181, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.046875 = fieldNorm(doc=181)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Raicher, E.: Möglichkeiten und Grenzen von Primo bei der Einführung in deutschsprachigen Bibliotheken und Bibliotheksverbünden (2010) 0.01
    0.012594774 = product of:
      0.06297387 = sum of:
        0.015405752 = product of:
          0.030811504 = sum of:
            0.030811504 = weight(_text_:recherche in 4311) [ClassicSimilarity], result of:
              0.030811504 = score(doc=4311,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.17965738 = fieldWeight in 4311, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4311)
          0.5 = coord(1/2)
        0.033011325 = weight(_text_:software in 4311) [ClassicSimilarity], result of:
          0.033011325 = score(doc=4311,freq=8.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 4311, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4311)
        0.014556794 = product of:
          0.029113589 = sum of:
            0.029113589 = weight(_text_:analyse in 4311) [ClassicSimilarity], result of:
              0.029113589 = score(doc=4311,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.1746371 = fieldWeight in 4311, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4311)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Bibliotheksnutzende werden heute bei der Suche nach Informationen mit verschiedensten Suchoberflächen von Katalogen, Datenbanken und Repositories konfrontiert. Eine Möglichkeit, die Recherche nach gedruckten und elektronischen Medien bequemer zu gestalten, ist die Implementierung eines Werkzeuges auf Basis von Suchmaschinentechnologie, mithilfe dessen alle integrierten Quellen über nur ein Suchfeld gleichzeitig abgefragt werden können. Im Rahmen dieser Diplomarbeit sollen die Erfahrungen von Bibliotheken mit einer solchen Software, nämlich Primo von Ex Libris, verglichen werden. Zweck ist es herauszufinden, welche Erwartungen der Einsatz von Primo in Bibliotheken bzw. Bibliotheksverbünden im deutschsprachigen Raum einerseits wecken und andererseits erfüllen kann. Ausgangspunkt für die Arbeit war dabei die geplante Einführung von Primo an der Bibliothek der Wirtschaftsuniversität Wien (WU), bei der man bereits auf Erfahrungswerte anderer Institutionen zurückgreifen möchte. Eine der ursprünglichen Hypothesen ist, dass der Implementierungsaufwand von Primo durch die Serviceverbesserung für Bibliotheksnutzende durch zusammengeführte Informationen gerechtfertigt wird. Weiters wird angenommen, dass sich durch den Zusammenschluss mehrerer Bibliotheken beim Einsatz von Primo für die einzelnen Einrichtungen zusätzlich Verbesserungen im bibliotheksadministrativen Bereich ergeben, was deshalb relevant ist, weil für die österreichischen Bibliotheken eine Konsortiallösung für Primo angeboten wird. Auch dass durch den Einsatz von Primo Bibliotheksbestände aus verschiedenen Sammlungen einer Bibliothek in unterschiedlichen Medienformaten besser genutzt werden, ist eine Hypothese. Schließlich wird angenommen, dass sich Bibliotheksmanager durch den Einsatz von Primo Verbesserungen der Recherchebedingungen für Bibliotheksangestellte im Auskunftsdienst erhoffen. Um einen genaueren Einblick in die Funktionen von Primo zu bekommen, wurden anfänglich Informationen von der Anbieterfirma Ex Libris zusammengefasst.
    Außerdem wurden die Pläne, Erwartungen und Befürchtungen der WU-Bibliothek im Zusammenhang mit Primo festgehalten. Aufgrund eines Vergleichs von Informationen aus Experteninterviews sollen anschließend bewährte Vorgehensweisen für andere Institutionen und Verbünde, die den Einsatz der Search & Discovery-Software planen, identifiziert werden. Zu diesem Zweck wurden Bibliothekarinnen und Bibliothekare aus wissenschaftlichen Bibliotheken befragt, die in den Einführungsprozess involviert waren. Dies sind im Speziellen Angestellte der Universitätsbibliothek Mannheim, der Universitäts- und Landesbibliothek Tirol in Innsbruck, der Universitätsbibliothek Wien und der Bibliothek der ETH Zürich, zugleich Host des Schweizer NEBIS-Verbunds. Ergänzend wurde als Primo-Host der österreichischen Bibliotheken die Österreichische Bibliothekenverbund und Service Gesellschaft mbH (OBVSG) kontaktiert. Dabei wurden von den Projektverantwortlichen insbesondere die Erwartungen vor dem Einsatz von Primo erfragt, aber auch mit welchen Hürden und Problemen die Implementierung der Software verbunden war. Ein Vergleich der erhaltenen Informationen erlaubt einen Rückschluss auf generell erhoffte Veränderungen durch die Einführung des Systems und häufig auftretende Ereignisse im Projektverlauf. Verglichen werden dabei nicht nur die Angaben der Primo einsetzenden Bibliotheken untereinander, sondern auch deren Erfahrungen mit den von Ex Libris angenommenen Projektverläufen. Abschließend werden auch noch die Erwartungen der WU-Bibliothek mit den gesammelten Informationen verglichen.
    Die Ergebnisse der Analyse sind teils überraschend, so konnten die ursprünglichen Hypothesen aufgrund der Berichte seitens der Primo einsetzenden Bibliotheken nicht durchwegs bestätigt werden. Eine Verbesserung der Bestandsnutzung konnte teilweise bereits beobachtet werden, da in zwei Bibliotheken vor allem die Zugriffszahlen auf elektronische Datenbankinhalte nach dem Freischalten von Primo stark gestiegen sind. Auch dass der konsortiale Einsatz innerhalb eines Verbund Vorteile mit sich bringt, konnte bestätigt werden. Allerdings wurde auch der zusätzliche Kommunikations- und Abstimmungsaufwand betont, da sich die teilnehmenden Verbundbibliotheken aufgrund einer gemeinsamen Installation auf bestimmte Einstellungen einigen müssen. Einig war man sich in dem Punkt, dass der Aufwand bei der Einführung des Produkts letztlich durch die zu erwartende Serviceverbesserung für Bibliotheksnutzende gerechtfertigt wird. Tatsächliche Erfahrungswerte gibt es in diesem Bereich noch nicht, da die Einsatzdauer der Suchoberfläche zum Zeitpunkt der Befragungen in keiner der Bibliotheken lange genug für aussagekräftige Benutzerrückmeldungen war. Weniger angenommen wird allerdings eine Verbesserung der Recherchebedingungen für Bibliothekarinnen und Bibliothekare durch Primo, da man bei dem suchmaschinentechnologiebasierten Produkt die Möglichkeit zur Abfrage einzelner Datenfelder wie z.B. bei der Suchmaske einer relationalen Datenbank vermisst. Aus diesem Grund wird angenommen, dass die Mitarbeitenden bei der Dienstrecherche weiterhin auf die Bearbeitersicht des OPACs oder direkt auf Spezialdatenbanken zugreifen werden. Im Auskunftsdienst arbeiten die Bibliothekarinnen und Bibliothekare allerdings mit derselben Primo-Suchoberfläche wie die Bibliotheksnutzenden. Da sich im Zeitraum der Erstellung der Diplomarbeit laufend weitere Bibliotheken für den Einsatz von Primo entschieden haben, sollten diese nicht unberücksichtigt bleiben. Im Anhang befinden sich daher die Informationen, die von Projektmitgliedern der Bibliothek der Veterinärmedizinischen Universität Wien, der Österreichischen Nationalbibliothek und der Universitäts- und Landesbibliothek Münster zur geplanten Einführung der Software eingeholt wurden. Diese geben einen Ausblick auf die zukünftigen Implementierungsprojekte von Primo im deutschsprachigen Raum.
  12. Scheerer, H.: Gülich online : Die Retrokonversion des Zettelkatalogs der Bundestagsbibliothek (2007) 0.01
    0.012347942 = product of:
      0.09260956 = sum of:
        0.08403575 = sum of:
          0.012879624 = weight(_text_:online in 513) [ClassicSimilarity], result of:
            0.012879624 = score(doc=513,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.13412495 = fieldWeight in 513, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
          0.07115612 = weight(_text_:recherche in 513) [ClassicSimilarity], result of:
            0.07115612 = score(doc=513,freq=6.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.414901 = fieldWeight in 513, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.03125 = fieldNorm(doc=513)
        0.008573813 = product of:
          0.017147627 = sum of:
            0.017147627 = weight(_text_:22 in 513) [ClassicSimilarity], result of:
              0.017147627 = score(doc=513,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.15476047 = fieldWeight in 513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=513)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Konzeptionelle Grundlagen Das Jahr 2006 stand für die Bundestagsbibliothek im Zeichen der Retrokonversion. Die Daten von 839.000 Karten des Verfasser- und Titelkatalogs des Gülichschen Katalogsystems, die den Bestand bis 1986 nachweisen, wurden maschinenlesbar gemacht und in den elektronischen Katalog der Bibliothek eingespielt. Damit ist nunmehr der Gesamtbestand der Bibliothek sowohl im Intranet des Bundestages als auch im Internet recherchierbar. Mit der Retrokonversion verfolgte die Bundestagsbibliothek zwei zentrale Ziele. Erstens sollte eine integrierte Recherche von Alt- und Neudaten ermöglicht werden, zweitens sollte der Bestand bis 1986 mit demselben Komfort direkt entleih-bar, vormerkbar und verlängerbar sein wie der Bestand ab 1987. Aufgrund der finanziellen Rahmenbedingungen des Projekts einerseits und der Ausgangssituation im Kartenkatalog andererseits mussten bezüglich der Suchmöglichkeiten Unterschiede zwischen Alt- und Neudaten festgelegt werden. Analog zu der beim Aufbau des HEBIS-Retrokataloges verfolgten Philosophie wurde seitens der Bibliothek entschieden, dass man die zu konvertierenden Daten über die wichtigsten Sucheinstiege wie Verfasser, Hauptsachtitel und Erscheinungsjahr finden können sollte. Ein Sucheinstieg über Schlagwörter wurde hingegen des seinerzeit für die Sacherschließung verwendeten, nicht-natürlichsprachlichen Vokabulars und der zahlreichen Abkürzungen auf den Katalogkarten wegen als nicht sinnvoll erachtet. Im Unterschied zum HEBIS-Retroprojekt entschied sich die Bundestagsbibliothek jedoch, Alt- und Neudaten in einer gemeinsamen Datenbank zusammenzuführen. Der Vorteil der integrierten Recherche überwog die Bedenken, dass die Daten auf der Grundlage zweier unterschiedlicher, formaler Regelwerke (Gülich/RAK-PB) erstellt worden waren.
    Neben der integrierten Recherche war die Realisierung einer direkten Bestell- und Ausleihmöglichkeit des Altbestands konzeptioneller Kernpunkt des Projekts. Dabei stellte sich jedoch ein grundlegendes Problem: Mehr als die Hälfte, nämlich knapp 425.000 der zu konvertierenden Katalogkarten waren Aufsatzkatalogisate. Die für eine Ausleihe notwendigen Verknüpfungen zu den ausleihfähigen, übergeordneten Gesamtheiten konnten nicht automatisch erzeugt werden, hier mussten Umgehungslösungen gefunden werden. Die Vorgehensweise bei der Retrokonversion ergab sich aus den konzeptionellen Grundüberlegungen einerseits und der Nichtzugehörigkeit der Bundestagsbibliothek zu einem überregionalen Verbund andererseits. Von vornherein schied daher die Variante aus, bereits vorhandene Datensätze eines eigenen Verbundes als Ausgangspunkt für die Retrokonversion zu nehmen und gleichzeitig den Aufsatzbestand neu zu katalogisieren - ein Weg, wie ihn die Deutsche Zentralbibliothek für Wirtschaftswissenschaften in Kiel beschritten hat, die gleichfalls einen Gülich-Katalog zu konvertieren hattet. Stattdessen verlief das Retrokonversionsprojekt der Bundestagsbibliothek zweigeteilt. Im Zuge einer europaweiten Ausschreibung mit vorgeschaltetem Teilnehmerwettbewerb wurde die Firma Satz-Rechen-Zentrum GmbH, die schon zahlreiche Katalogkonversionen erfolgreich durchgeführt hat, beauftragt, die Daten der Katalogkarten zu konvertieren und für eine Einspielung in die Bibliotheksdatenbank zu Verfügung zu stellen. Die Einspielung selbst wurde von der Firma ASTEC GmbH vorgenommen, welche die in der Bundestagsbibliothek eingesetzte Katalogsoftware aDIS/BMS entwickelt hat.
    Date
    22. 8.2007 11:43:43
  13. Raicher, E.: Prima Primo! (2010) 0.01
    0.0113462815 = product of:
      0.085097104 = sum of:
        0.041082006 = product of:
          0.08216401 = sum of:
            0.08216401 = weight(_text_:recherche in 4310) [ClassicSimilarity], result of:
              0.08216401 = score(doc=4310,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.47908637 = fieldWeight in 4310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4310)
          0.5 = coord(1/2)
        0.0440151 = weight(_text_:software in 4310) [ClassicSimilarity], result of:
          0.0440151 = score(doc=4310,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.35064998 = fieldWeight in 4310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=4310)
      0.13333334 = coord(2/15)
    
    Abstract
    Im letzten Jahr haben sich einige deutschsprachige Bibliotheken und Bibliotheksverbünde für die Einführung von Suchmaschinentechnologie zur einfacheren Recherche in ihren Beständen entschieden. So wurden von mehreren österreichischen Universitätsbibliotheken und der OBVSG Projekte zum Einsatz der Software Primo von Ex Libris gestartet bzw. abgeschlossen. Auch in Deutschland und der Schweiz gab es Pilotprojekte, bei denen bereits erste Erfahrungen mit dem Produkt gesammelt werden konnten. Im Rahmen einer Masterthesis (Diplomarbeit) wurden Erwartungen und erste Eindrücke mittels Interviews erhoben und verglichen.
  14. Kneifel, F.: Mit Web 2.0 zum Online-Katalog der nächsten Generation (2009) 0.01
    0.010240564 = product of:
      0.07680423 = sum of:
        0.024149295 = product of:
          0.04829859 = sum of:
            0.04829859 = weight(_text_:online in 2919) [ClassicSimilarity], result of:
              0.04829859 = score(doc=2919,freq=18.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.50296855 = fieldWeight in 2919, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2919)
          0.5 = coord(1/2)
        0.052654933 = weight(_text_:web in 2919) [ClassicSimilarity], result of:
          0.052654933 = score(doc=2919,freq=16.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.5099235 = fieldWeight in 2919, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2919)
      0.13333334 = coord(2/15)
    
    Abstract
    Das Web 2.0 hat auch bei Bibliotheksnutzern zu veränderten Erwartungshaltungen an bibliothekarische Online-Angebote wie die Kataloge geführt. Diese waren lange Zeit statische Nachweisinstrumente, die heutzutage über das Angebot reiner Bestandsverzeichnisse hinausgehend verschiedene Web 2.0-Funktionalitäten sowie Zusatzinformationen mittels Kataloganreicherung integrierten sollten, um den Erwartungen der Nutzer zu genügen. Die Ergebnisse einer Online-Umfrage unter Nutzern einer Großstadtbibliothek unterstreichen dies: die Nutzer wünschen sich vielfältige Browsingmöglichkeiten, Google-ähnliche Suchmöglichkeiten, zusätzliche Inhalte und ein personalisier-bares Angebot. Welche Funktionen und Inhalte sollte ein Bibliothekskatalog im Zeitalter des Web 2.0 bieten? Am Beispiel der Stadtbücherei Frankfurt wird dargestellt wie Prinzipien des Web 2.0 - u.a. Nutzerfreundlichkeit und Kollaboration - auf das Online-Angebot übertragbar sind, ohne dabei den Personalaufwand, die rechtliche Absicherung der Bibliothek und Fragen der technischen Implementierung zu vergessen.
    Classification
    AN 74190 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Elektronische Kataloge, Online-Kataloge
    Content
    Zugl.: Berlin, Humboldt-Univ., Masterarbeit, 2008 u.d.T.: Welche Funktionen und Inhalte sollte ein Bibliothekskatalog im Zeitalter des Web 2.0 bieten?
    RSWK
    Online-Katalog / World Wide Web 2.0 / Hochschulschrift
    RVK
    AN 74190 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Elektronische Kataloge, Online-Kataloge
    Series
    B.I.T. online. Innovativ; 23
    Subject
    Online-Katalog / World Wide Web 2.0 / Hochschulschrift
  15. Majors, R.: Comparative user experiences of next-generation catalogue interfaces (2012) 0.01
    0.010151585 = product of:
      0.07613688 = sum of:
        0.03890422 = weight(_text_:software in 5571) [ClassicSimilarity], result of:
          0.03890422 = score(doc=5571,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.30993375 = fieldWeight in 5571, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5571)
        0.03723266 = weight(_text_:web in 5571) [ClassicSimilarity], result of:
          0.03723266 = score(doc=5571,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 5571, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5571)
      0.13333334 = coord(2/15)
    
    Abstract
    One of the presumed advantages of next-generation library catalogue interfaces is that the user experience is improved-that it is both richer and more intuitive. Often the interfaces come with little or no user-facing documentation or imbedded "help" for patrons based on an assumption of ease of use and familiarity of the experience, having followed best practices in use on the Web. While there has been much gray literature (published on library Web sites, etc.) interrogating these implicit claims and contrasting the new interfaces to traditional Web-based catalogues, this article details a consistent and formal comparison of whether users can actually accomplish common library tasks, unassisted, using these interfaces. The author has undertaken a task-based usability test of vendor-provided next-generation catalogue interfaces and Web-scale discovery tools (Encore Synergy, Summon, WorldCat Local, Primo Central, EBSCO Discovery Service). Testing was done with undergraduates across all academic disciplines. The resulting qualitative data, noting any demonstrated trouble using the software as well as feedback or suggested improvements that the users may have about the software, will assist academic libraries in making or validating purchase and subscription decisions for these interfaces as well as help vendors make data-driven decisions about interface and experience enhancements.
  16. Blenkle, M.; Ellis, R.; Haake, E.: E-LIB Bremen : Automatische Empfehlungsdienste für Fachdatenbanken im Bibliothekskatalog / Metadatenpools als Wissensbasis für bestandsunabhängige Services (2009) 0.01
    0.00993316 = product of:
      0.07449869 = sum of:
        0.05588236 = weight(_text_:suchmaschine in 2479) [ClassicSimilarity], result of:
          0.05588236 = score(doc=2479,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.31235638 = fieldWeight in 2479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2479)
        0.01861633 = weight(_text_:web in 2479) [ClassicSimilarity], result of:
          0.01861633 = score(doc=2479,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 2479, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2479)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Vergleich zur rasanten Entwicklung von Suchmaschinentechnik außerhalb des Bibliotheksumfelds haben sich die weitgehend Printmedien-basierten OPACs der Bibliotheken seit dem Jahr 2000 nur wenig inhaltlich weiterentwickelt. Aus diesem Grunde sind derzeit an vielen Stellen Bibliotheksinitiativen zu beobachten, die im Rahmen von Eigenentwicklungen neue Wege der Katalogsuche und Trefferpräsentation ausprobieren. Dabei spielen Anregungen aus der nichtbibliothekarischen Suchmaschinenszene und dem Kontext des Web 2.0 eine wichtige Rolle. Im Gegensatz zum einfachen Identifizieren und Anzeigen von Trefferlisten im klassischen OPAC erlauben es neue Indexierungs- und Präsentationstechniken, die wertvollen und aufwendig erzeugten bibliografischen Daten des Suchkontextes nutzerfreundlicher darzustellen. Außerdem können im Verlauf des Such-und Rankingvorgangs Analysen der Metadaten der gefundenen Titel erfolgen, auf deren Basis die Entwicklung neuer Katalogfunktionen möglich ist. Ein Beispiel für einen neuen Dienst, der nach diesem Prinzip aufgebaut werden kann, ist die automatische Empfehlung von bibliografischen Fachdatenbanken im Rahmen der Katalogsuche in der E-LIB Bremen.
    Content
    "... Typische Vorteile einer Suchmaschine unter Nutzung eines lokalen Gesamtindexes sind die hohe Antwortgeschwindigkeit, die homogene Trefferpräsentation und eine ausgewogene Gewichtung aller Ressourcen. Die lokale Datensammlung eröffnet darüber hinaus Möglichkeiten, die vorhandenen Nachweise als Wissensbasis für neue Verfahren der Treffermengenanalyse zu nutzen, die während der Suche auf der Menge der Resultate prozessiert werden können. Dazu gehören z.B. klassische Drill-Down-Techniken, die nachträglich eine formale und inhaltliche Filterung erzielter Treffersets erlauben und die bereits in vielen modernen Suchmaschinen zum Standard gehören. ..."
  17. Pera, M.S.; Lund, W.; Ng, Y.-K.: ¬A sophisticated library search strategy using folksonomies and similarity matching (2009) 0.01
    0.00951769 = product of:
      0.07138267 = sum of:
        0.01861633 = weight(_text_:web in 2939) [ClassicSimilarity], result of:
          0.01861633 = score(doc=2939,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 2939, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2939)
        0.052766338 = weight(_text_:site in 2939) [ClassicSimilarity], result of:
          0.052766338 = score(doc=2939,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.3035229 = fieldWeight in 2939, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2939)
      0.13333334 = coord(2/15)
    
    Abstract
    Libraries, private and public, offer valuable resources to library patrons. As of today, the only way to locate information archived exclusively in libraries is through their catalogs. Library patrons, however, often find it difficult to formulate a proper query, which requires using specific keywords assigned to different fields of desired library catalog records, to obtain relevant results. These improperly formulated queries often yield irrelevant results or no results at all. This negative experience in dealing with existing library systems turns library patrons away from directly querying library catalogs; instead, they rely on Web search engines to perform their searches first, and upon obtaining the initial information (e.g., titles, subject headings, or authors) on the desired library materials, they query library catalogs. This searching strategy is an evidence of failure of today's library systems. In solving this problem, we propose an enhanced library system, which allows partial, similarity matching of (a) tags defined by ordinary users at a folksonomy site that describe the content of books and (b) unrestricted keywords specified by an ordinary library patron in a query to search for relevant library catalog records. The proposed library system allows patrons posting a query Q using commonly used words and ranks the retrieved results according to their degrees of resemblance with Q while maintaining the query processing time comparable with that achieved by current library search engines.
  18. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.01
    0.009040921 = product of:
      0.06780691 = sum of:
        0.038693316 = weight(_text_:web in 5744) [ClassicSimilarity], result of:
          0.038693316 = score(doc=5744,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.37471575 = fieldWeight in 5744, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.029113589 = product of:
          0.058227178 = sum of:
            0.058227178 = weight(_text_:analyse in 5744) [ClassicSimilarity], result of:
              0.058227178 = score(doc=5744,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.3492742 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
  19. Jett, M.; Reuse, B.; Kessling, G.: Implementation of an online database for tables of contents of books (1998) 0.01
    0.008853728 = product of:
      0.06640296 = sum of:
        0.011384088 = product of:
          0.022768175 = sum of:
            0.022768175 = weight(_text_:online in 1861) [ClassicSimilarity], result of:
              0.022768175 = score(doc=1861,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23710167 = fieldWeight in 1861, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1861)
          0.5 = coord(1/2)
        0.055018872 = weight(_text_:software in 1861) [ClassicSimilarity], result of:
          0.055018872 = score(doc=1861,freq=8.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43831247 = fieldWeight in 1861, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1861)
      0.13333334 = coord(2/15)
    
    Abstract
    Many small libraries do not have the resources to build a holdings database but the availability of affordable scanners and improved OCR software has made possible a new approach for creating online databases. Describes the work undertaken at the Otto Hahn Library of the Max Planck Institute for Biophysical Chemistry, Germany, to create a database consisting of the titles, bibliographic descriptions and contents tables of books acquired by the library. The book information and table of contents pages are scanned and converted to text using OCR software. A computer program is used to extract as much information as possible, in particular from the CIP data with corrections and missing information being supplied manually. Finally, the information, which consists of: title; author; ISBN; publication year; call number; series; language; and other relevant information for books, as well as the entire table of contents, is stored and added to an Ovid database using the Ovid Local Loader software. Pays particular attention to the algorithm used to extract specific information from the CIP data. 2 OCR software packeges have been tested: OmniPage Pro 7.0 and FineReader 3.0. Experience has shown that FineReader is better at character recognition and retains the formatting better but OmniPage Pro is easier to train to recognize special characters
  20. Umstätter, W.; Wagner-Döbler, R.; Löffler, K.: Einführung in die Katalogkunde : Vom Zettelkatalog zur Suchmaschine (2005) 0.01
    0.008269916 = product of:
      0.04134958 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 4880) [ClassicSimilarity], result of:
          0.02794118 = score(doc=4880,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 4880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4880)
        0.008049765 = product of:
          0.01609953 = sum of:
            0.01609953 = weight(_text_:online in 4880) [ClassicSimilarity], result of:
              0.01609953 = score(doc=4880,freq=8.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.16765618 = fieldWeight in 4880, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4880)
          0.5 = coord(1/2)
        0.0053586336 = product of:
          0.010717267 = sum of:
            0.010717267 = weight(_text_:22 in 4880) [ClassicSimilarity], result of:
              0.010717267 = score(doc=4880,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.09672529 = fieldWeight in 4880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4880)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Diese Einführung in die moderne Katalogkunde ist nicht nur für angehende Bibliothekare und Angehörige informationsbezogener Berufe gedacht, sie gilt auch allen interessierten Laien, die sich für eine professionelle Nutzung von Katalogen, insbesondere solchen in Form von Online-Datenbanken, im Bibliotheksbereich interessieren. Die Bibliothek ist eine Einrichtung zur Orientierung in einer Publikationsflut; aber nicht nur in Form einer «Positiv-Auswahl»: Sie stellt auch Information bereit, die man nach kurzer Prüfung verwirft oder die im Laufe des wissenschaftlichen Fortschritts falsifiziert wurde. Sie ist so auch Staumauer zur Eindämmung der Informationsüberflutung des Einzelnen, unabhängig vom aktuellen Nachfrage- oder Marktgeschehen. Insofern war sie auch immer eine Abwehr gegen Schund - und sei es nur durch dessen erbarmungsloser Dokumentation, und Bestandteil eines Controlling gegen schlechte und überflüssige Wissenschaft. Es ist daher auch die zentrale Aufgabe einer Katalogisierung, dazu beizutragen. Noch deutlicher gesagt, ist es weniger die Aufgabe der Bibliothekskataloge, uns zu zeigen, was wir alles lesen können, das sind allein etwa 100 Mio. verschiedene Buchtitel, es ist vielmehr ihre Aufgabe uns zu zeigen, was wir alles nicht lesen müssen, weil es bessere Quellen gibt. Diese Zeitersparnis ist insbesondere im Wettbewerb um das neu zu entdeckende Wissen in der Wissenschaft das höchste Gut, das wir haben, und Wissenschaft würde ohne diese Hilfe unbezahlbar. Es sei an eine mittlerweile rund 50 Jahre alte Maxime des großen indischen Bibliothekars und Bibliothekswissenschaftlers S.R. RANGANATHAN erinnert, die er (etwas irreführend) als ein «Gesetz der Bibliothekswissenschaft» bezeichnete: «Save the time of the reader. » Es ist aber auch für den Leser von Belletristik, für die Auswahl von Videofilmen oder Kinderbüchern nicht weniger wichtig, was man liest. So zitiert A. v. Harnack keinen geringeren als Leibniz mit den Worten «man weis, was bisweilen ein baar Bücher für Schaden gethan!'»
    Lesen hat mit Bildung zunächst nichts zu tun, es kommt darauf an, was man liest, und das wird nicht zuletzt von Katalogen beeinflusst. Wenn hier von Bibliotheken und Katalogen die Rede ist, mag der Leser und die Leserin bei Ersterem unwillkürlich an konkrete papierene Objekte denken, nämlich Bücher. Die Zahl derer hingegen, die mit «Katalog» Karteikarten verbinden, wird schon viel bescheidener ausfallen, denn wir benutzen heute selbstverständlich elektronische Datenbanken als Kataloge. Aber ebenso selbstverständlich gibt es nicht den geringsten systematischen Grund, im Folgenden digitale Bibliotheken auszuschließen. Im einfachsten Fall liegen zu den bibliographischen Informationen in einer Datenbank zugleich die zugehörigen Buchtexte vor, in welcher konkreten Form auch immer. Die Bibliothekare von heute haben es mit einer Vielzahl von Katalogen in Form von Bandkatalogen, Datenbanken, Karteien, Mikrofiches oder Multimedialen Katalogen zu tun, wobei sie immer mehr Datenbanken weltweit online erreichen. So wie wir in der Bibliotheksverwaltung (Ewert, G. und Umstätter, W. 1997) von einer Verwaltung im engeren und im erweiterten Sinne sprechen können, so müssen wir zwischen Katalogen unterscheiden, die den eigenen Besitz und solchen, die das verfügbare Wissen und die publizierte Information weiterer Einrichtungen oder sogar der ganzen Welt erschließen. Im ersten Fall sprechen wir von den Katalogen im engeren Sinne. Im zweiten Fall haben wir es einerseits mit der Zusammenführung von verschiedenen Bibliothekskatalogen zu tun, z.B. in Katalogisierungsverbünden oder sogenannten Internetportalen, und andererseits mit den meist thematisch ausgerichteten Datenbanken, die nicht selten aus den früheren Bibliographien hervorgegangen sind. Bei ihnen eine sogenannte Verlinkung mit den eigentlichen Quellen herzustellen ist oft leicht möglich. Die heutige Datenbanktechnik, die hinter modernen Katalogen steht, ergänzt stärker als je zuvor unser Gedächtnis, weil wir aus Volltext- und Multimediadatenbanken jederzeit gezielt all das abrufen können, was uns momentan nicht präsent ist. Wir können dies allerdings nur dann abrufen, wenn wir Wissen darüber besitzen, was abrufbar und wie es abrufbar ist. Zu dieser Grundlage will das vorliegende Buch beitragen. Schon die Griechen erkannten die fundamentale Bedeutung des geschriebenen Wortes als ein Langzeitgedächtnis, das unsere Erinnerung ins scheinbar Unendliche erweitert. Der Mythos von Theut beschäftigte sich mit der damit verbundenen Problematik. Aber erst die Daten- und Wissensbanken unserer Zeit schaffen die Möglichkeit, sich auch ganz gezielt zu erinnern. Sie bieten uns nicht nur die Möglichkeit bestimmte Bücher, sondern auch Aufsätze in Zeitschriften und inzwischen sogar einzelne Sätze bzw. Zitate zu finden.
    Die Katalogkunde von KARL LÖFFLER aus dem Jahre 1956 als Grundlage unserer Einführung kann einerseits als völlig veraltet angesehen werden, weil sie sich ausschließlich auf Kataloge bezieht, die auf Papier bzw. Karteikarten geschrieben waren. Die Fotographie und die Verwendung des Mikrofilms wurde damals als das Medium der Zukunft angesehen. Andererseits sind die Ausführungen der ersten und zweiten Auflage dieses Lehrbuchs von 1936 und 1956 insofern noch immer aktuell, als die Kataloge der damaligen Zeit inzwischen vielfach digitalisiert wurden und nun online verfügbar sind. Unter dem Stichwort Retrokonvertierung gewinnen die Katalogisierungsregeln der damaligen Zeit wieder Bedeutung oder bleiben sie wirksam. Und der Blick auf den geschichtlichen Kontext, den Löffler immer wieder hervorhebt, vermittelt unserer Meinung nach auch heute noch ein Gefühl für die historische Kontinuität der Probleme, die wir heute unter die Begriffe Wissensorganisation und Wissensmanagement subsumieren. «Die Unkenntnis der Lehre vom Katalog rächt sich am Bibliotheksbesucher selbst», schreibt LÖFFLER in seinem Vorwort von 1935, und wir können heute ergänzen, dass diese Besucher weitaus häufiger Nutzer von Bibliotheken sind, als sie es selbst oft wissen. Sie sitzen zu Hause, im Büro oder im Internetcafe an einem Computer und recherchieren in Online-Katalogen bzw. Datenbanken nach Publikationen, oft ohne jede Kenntnis davon, wie die Erschließung der Bestände organisiert ist, und nicht selten auch ohne den gewünschten Erfolg - und nicht immer im Bewusstsein, dass ein Misserfolg vorliegt, der sich bei besserer Katalog- und Datenbankkenntnis hätte vermeiden lassen. Katalogkunde offenbart damit das Spiel zwischen gezielter Suche, über das «Stöbern» (Browsing) hin bis zur Serendipity, in der wir, wie einst die jungen Prinzen auf Ceylon (Serendip) hinaus in die Fremde ziehen, um uns von der Großartigkeit der Welt überraschen zu lassen - und Bibliotheken haben im Sinne der Welt 3 von KARL POPPER eine überwältigende Größe und Vielfalt. Bei dem Spiel, der ein Wettkampf um die besten Informationen ist, kann es nicht darum gehen, die Regeln der Preußischen Instruktionen(PI), der Alphabetischen Katalogisierung (RAK), die Anglo-American Cataloguing Rules (AACR), die Regeln für den Schlagwortkatalog (RSWK), die Prinzipien des Unified Medical Language Systems (UMLS) usw. im einzelnen zu behandeln, sondern vielmehr nur darum, die Grundprinzipien des modernen Kataloges aus ihrer Evolution heraus zu verstehen, um mit ihnen möglichst virtuos umzugehen. Wir hoffen, dass die Katalogkunde dadurch jene Fassung erhalten hat, die den heutigen Bedürfnissen entspricht, und dass sie damit einerseits Inhalte aus dem «Lehrbuch der Bibliotheksverwaltung», und andererseits aus der «Katalogkunde» von KLAUs HALLER (1998) in wichtigen Punkten ergänzt und erweitert.
    Date
    22. 1.2006 19:45:49

Authors

Years

Languages

  • e 98
  • d 72
  • sp 2
  • a 1
  • f 1
  • i 1
  • ru 1
  • More… Less…

Types

  • a 157
  • el 12
  • m 7
  • s 5
  • x 4
  • b 3
  • r 3
  • More… Less…