Search (9 results, page 1 of 1)

  • × author_ss:"Rusch, B."
  1. Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg : Erste Erfahrungen im Produktionsbetrieb (2000) 0.03
    0.032330476 = product of:
      0.1293219 = sum of:
        0.025450243 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.025450243 = score(doc=5519,freq=30.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.025450243 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.025450243 = score(doc=5519,freq=30.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.027520927 = weight(_text_:der in 5519) [ClassicSimilarity], result of:
          0.027520927 = score(doc=5519,freq=34.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.5087885 = fieldWeight in 5519, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.025450243 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.025450243 = score(doc=5519,freq=30.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
        0.025450243 = weight(_text_:und in 5519) [ClassicSimilarity], result of:
          0.025450243 = score(doc=5519,freq=30.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.47420087 = fieldWeight in 5519, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5519)
      0.25 = coord(5/20)
    
    Abstract
    Die Verbundentwicklungen in Berlin und Brandenburg erfolgen seit 1997 als Projekt, das am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) angesiedelt ist. Diese außeruniversitäre Forschungseinrichtung betreibt in enger fächerübergreifender Kooperation mit den Hochschulen und wissenschaftlichen Einrichtungen in Berlin Forschung und Entwicklung auf dem Gebiet der Informationstechnik, vorzugsweise in anwendungsorientierter algorithmischer Mathematik. Gemeinsam mit der Softwarefirma ExLibris wird hier auf der Basis des Bibliothekssystems Aleph500 eine bibliothekarische Suchmaschine realisiert. Dabei übernimmt das ZIB die Konzeption und ExLibris die programmtechnische Umsetzung. An dem Projekt Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) sind insgesamt 1-5 bibliothekarische Einrichtungen beteiligt. Neben den großen Universitätsbibliotheken der beiden Länder - der Freien Universität Berlin, der Technischen Universität Berlin, der Humboldt-Universität und der Hochschule der Künste sowie der Europa-Universität Viadrina in Frankfurt (Oder) und der Brandenburgischen Technischen Universität Cottbus - sind das die brandenburgischen Fachhochschulen, die Stadt- und Landesbibliothek in Potsdam und nicht zuletzt die Staatsbibliothek zu Berlin. Außer diesen dezidiert als Projektpartner in einer entsprechenden Vereinbarung genannten Bibliotheken arbeiten weitere bibliothekarische Institutionen als Tester mit
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  2. Grötschel, M.; Kuberek, M.; Lill, M.; Lohrum, S.; Lügger, J.; Rusch, B.: Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) (2001) 0.03
    0.02817295 = product of:
      0.09390983 = sum of:
        0.015934372 = weight(_text_:und in 1771) [ClassicSimilarity], result of:
          0.015934372 = score(doc=1771,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2968967 = fieldWeight in 1771, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1771)
        0.015934372 = weight(_text_:und in 1771) [ClassicSimilarity], result of:
          0.015934372 = score(doc=1771,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2968967 = fieldWeight in 1771, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1771)
        0.018689455 = weight(_text_:der in 1771) [ClassicSimilarity], result of:
          0.018689455 = score(doc=1771,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34551817 = fieldWeight in 1771, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1771)
        0.015934372 = weight(_text_:und in 1771) [ClassicSimilarity], result of:
          0.015934372 = score(doc=1771,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2968967 = fieldWeight in 1771, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1771)
        0.015934372 = weight(_text_:und in 1771) [ClassicSimilarity], result of:
          0.015934372 = score(doc=1771,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2968967 = fieldWeight in 1771, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1771)
        0.011482884 = product of:
          0.022965768 = sum of:
            0.022965768 = weight(_text_:22 in 1771) [ClassicSimilarity], result of:
              0.022965768 = score(doc=1771,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.2708308 = fieldWeight in 1771, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1771)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV) wurde in den Jahren 1997-2000 im Rahmen eines wissenschaftlichen Projektes eingerichtet. Er stellt eine neuartige Form von Bibliotheksverbund dar. Sein technisches Konzept und sein organisatorischer Aufbau basieren auf der "Internetphilosophie". Den informationstechnischen Kern bildet eine Suchmaschine, die die heterogenen lokalen Bibliothekssysteme miteinander verbindet. Die KOBV-Organisation ist dezentral. Sie wird getragen von der Kooperation der Bibliotheken in Berlin und Brandenburg; diese werden von einer kleinen Verbundzentrale unterstützt. Die KOBV-Suchmaschine ist zu erreichen unter: http://www.kobv.de/suche/.
    Date
    22. 3.2008 13:55:34
    Source
    Bibliothek: Forschung und Praxis. 25(2001) H.1, S.55-64
  3. Block, B.; Labner, J.; Rusch, B.: Katalogisierung kooperativ gemacht (2007) 0.03
    0.025195004 = product of:
      0.10078002 = sum of:
        0.020780036 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.020780036 = score(doc=38,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 38, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=38)
        0.020780036 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.020780036 = score(doc=38,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 38, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=38)
        0.017659876 = weight(_text_:der in 38) [ClassicSimilarity], result of:
          0.017659876 = score(doc=38,freq=14.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.326484 = fieldWeight in 38, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=38)
        0.020780036 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.020780036 = score(doc=38,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 38, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=38)
        0.020780036 = weight(_text_:und in 38) [ClassicSimilarity], result of:
          0.020780036 = score(doc=38,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3871834 = fieldWeight in 38, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=38)
      0.25 = coord(5/20)
    
    Abstract
    Haben Sie schon einmal versucht, Ihren fachfremden Bekannten oder Familienangehörigen plausibel zu erklären, warum in Deutschland (die Österreicher mögen diese Verkürzung einen Moment verzeihen und sich mitgenannt fühlen) eine Titelaufnahme zeitgleich mehrfach erstellt wird? Mal unter uns: Wir sind mit unseren ausführlichen Erklärungen regelmäßig gescheitert. Spätestens wenn wir mit unserem Vortrag bei unterschiedlichen Katalogisierungskonventionen und technischen Hindernissen angelangt sind, ist uns unser Gegenüber eingenickt. Unser fachfremdes Gegenüber, versteht sich. Aber je stärker die Katalogisierungsabteilungen in den Bibliotheken schrumpfen und die "pragmatische" der "perfekten" Titelaufnahme den Rang abläuft, desto mehr Fragen kommen auch von Bibliothekarlnnen: Warum lassen sich die Aufnahmen nicht aus anderen Verbünden übernehmen? Warum nicht die verknüpften Normdaten? Warum existieren nach wie vor unterschiedliche Erschließungspraktiken? Die Arbeitsgemeinschaft der Verbundsysteme hat sich 2005 dieser Thematik angenommen und ein Projekt mit dem Namen "Kooperative Neukatalogisierung" ins Leben gerufen. Es sollten Maßnahmen zur Verbesserung der Datenübernahme zwischen den Verbünden für die Formal- und Sacherschließung erarbeitet werden mit dem Ziel, die Eigenkatalogisierungsquoten zu senken sowie Anreicherungen für bestehende Datensätze (Sacherschließung, Links zu Rezensionen und Inhaltsverzeichnissen usw.) zu ermöglichen. In einem zweiten Paket sollte die Angleichung bzw. Vereinheitlichung von differierenden Regelwerks- und Formatanwendungen erreicht und ein gemeinsamer Qualitätsstandard in den Verbünden vereinbart werden. An diesem ambitionierten Unterfangen sind die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme (die Verbünde BVB, GBV, hbz, HeBIS, KOBV, OBV, SWB und ZDB und die Deutsche Nationalbibliothek (DNB)) beteiligt. Die Deutsche Nationalbibliothek hat in diesem Projekt eine besondere Ausgangslage. Während die Nutzung der Daten der Deutschen Nationalbibliothek in den Verbünden die Regel ist, betritt die Deutsche Nationalbibliothek Neuland, wenn sie im Rahmen dieses Projektes prüft, in welchem Umfang Verbunddaten für die eigene Arbeit genutzt werden können.
  4. Essen, F. von; Rusch, B.: Deutschsprachige Zeitungen auf CD-ROM : ein Vergleich der Zeitungen F.A.Z., NZZ und taz (1996) 0.03
    0.025007151 = product of:
      0.100028604 = sum of:
        0.018399429 = weight(_text_:und in 3713) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3713,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
        0.018399429 = weight(_text_:und in 3713) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3713,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
        0.026430883 = weight(_text_:der in 3713) [ClassicSimilarity], result of:
          0.026430883 = score(doc=3713,freq=16.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.4886365 = fieldWeight in 3713, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
        0.018399429 = weight(_text_:und in 3713) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3713,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
        0.018399429 = weight(_text_:und in 3713) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3713,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3713, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3713)
      0.25 = coord(5/20)
    
    Abstract
    Die große Speicherkapazität des Mediums CD-ROM eignet sich in besonderem Maße für die Volltextspeicherung von Tageszeitungen. Im deutschsprachigen Raum ist das Spektrum der Tagespresse auf CD-ROM noch beschränkt auf die FAZ, die Neue Zürcher Zeitung (NZZ) und die taz. Alle drei Produkte sind keine Cover-to-cover-Versionen der gedruckten Ausgaben, da sie keine Grafiken, Fotos und Anzeigenteile enthalten. Bei einer kritischen Prüfung der 3 Pressedatenbanken zeigt sich, daß die Retrievalflexibilität als Voraussetzung für einen zielgenauen Zugriff auf die gewünschten Informationen hinsichtlich des Angebotes an Operatoren, Trunkierungsmöglichkeiten und der Indexaufbereitung noch zu optimieren ist. Auch im Bereich der Oberflächengestaltung gibt es Defizite, die insbesondere die Nutzung der guten Inhaltserschließung der FAZ erschweren
  5. Albrecht, R.; Meßmer, G.; Rusch, B.; Thiessen, P.: Katalogisierung in der Datenwolke (2016) 0.02
    0.023071792 = product of:
      0.09228717 = sum of:
        0.018399429 = weight(_text_:und in 3740) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3740,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.018399429 = weight(_text_:und in 3740) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3740,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.018689455 = weight(_text_:der in 3740) [ClassicSimilarity], result of:
          0.018689455 = score(doc=3740,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34551817 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.018399429 = weight(_text_:und in 3740) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3740,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
        0.018399429 = weight(_text_:und in 3740) [ClassicSimilarity], result of:
          0.018399429 = score(doc=3740,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 3740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=3740)
      0.25 = coord(5/20)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 63(2016) H.5/6, S.xxx-xxx
  6. Block, B.; Hengel, C.; Heuvelmann, R.; Katz, C.; Rusch, B.; Schmidgall, K.; Sigrist, B.: Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB? (2005) 0.02
    0.022391366 = product of:
      0.08956546 = sum of:
        0.016727606 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.016727606 = score(doc=467,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.016727606 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.016727606 = score(doc=467,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.022655042 = weight(_text_:der in 467) [ClassicSimilarity], result of:
          0.022655042 = score(doc=467,freq=64.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.4188313 = fieldWeight in 467, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.016727606 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.016727606 = score(doc=467,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
        0.016727606 = weight(_text_:und in 467) [ClassicSimilarity], result of:
          0.016727606 = score(doc=467,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31167662 = fieldWeight in 467, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=467)
      0.25 = coord(5/20)
    
    Abstract
    Eine konsequente Umsetzung des FRBR-Modells - schreibt OCLC - würde die größte Veränderung in der Katalogisierung seit hundert Jahren bedeuten. Doch gibt es auch andere Stimmen. So hieß es am Rande eines FRBRWorkshops, der 2004 in Der Deutschen Bibliothek stattfand: Das Verhältnis zwischen den FRBR und der Katalogisierungspraxis sei vergleichbar mit der Beziehung zwischen Fußballkommentatoren und der Fußballmannschaft. Die einen theoretisierten nach Spielende das, was die anderen soeben getan hätten. Was hat es mit den Functional Requirements for Bibliographic Records nun tatsächlich auf sich? Haben vielleicht beide Stimmen Recht? In welcher Beziehung steht das MAB-Format zu dem vorliegenden Modell? Wie lassen sich die Entitäten mit ihren jeweiligen Attributen in MAB abbilden? Bietet MAB die strukturellen Voraussetzungen, um FRBR-Anwendungen zu unterstützen? Das sind die Fragen, die den MAB-Ausschuss, der seit Beginn diesen Jahres als Expertengruppe Datenformate auftritt, beschäftigten und auf die im Folgenden erste Antworten versucht werden. Die Functional Requirements for Bibliographic Records, kurz FRBR, sind eine Empfehlung der International Federation of Library Associations and Institutions (IFLA) von 1998 zur Neustrukturierung von Bibliothekskatalogen. Dabei sind die FRBR ausgelegt als ein logisches Denkmodell für bibliographische Beschreibungen. Es handelt sich ausdrücklich nicht um ein umsetzungsreifes Datenmodell oder gar ein praktisches Regelwerk. Das Modell bleibt auf einer abstrakten Ebene. Beschrieben werden abstrakte Entitäten mit ihren Eigenschaften und Beziehungen zueinander.
    Zehn Entitäten werden drei Gruppen zugeordnet. Die Entitäten der ersten Gruppe stehen unter der Überschrift Produkte intellektueller und/oder künstlerischer Arbeit, Gruppe zwei für die Produktverantwortlichen und die letzte Gruppe für die Produktinhalte. Wichtig für das Verständnis ist die Unterscheidung zwischen den vier Entitäten der ersten Gruppe: Work, Expression, Manifestation, Item. Die abstrakte Einheit Work drückt sich aus in einer Expression, die ihre konkrete, physische Erscheinung in einer oder mehreren Manifestationen findet, von der wiederum zahlreiche Items existieren (können). Frau Tillett nennt zur Illustration ein Beispiel: Von einem Roman (Work) existieren verschiedene Übersetzungen (Expression) als Papierausgabe oder Hörbuch (Manifestation), die in zahlreichen Exemplaren (Item) im Besitz einer Bibliothek sind. Diese Begriffe haben weder in der Terminologie der AACR noch in der der RAK genaue Entsprechungen. Entsprechend verhält es sich mit den Felddefinitionen auf der Formatebene in MAB und MARC 21. Zwei weitere Gruppen von Entitäten spielen im Kontext bibliographischer Veröffentlichungen eine Rolle: Zum einen sind dies Personen (Person) und Körperschaften (Corporate Body): Gruppe-2-Entitäten. Sie sind die Akteure, die ein künstlerisches Werk - bestehend aus Work, Expression, Manifestation, Item - gestalten: es schaffen, dazu beitragen oder daran beteiligt sind. Zum anderen sind dies Begriffe (Concept), Gegenstände (Object), Ereignisse (Event) und Orte (Place): die Gruppe-3-Entitäten. Damit sind alle Einheiten gemeint, die in Werken als deren Gegenstand behandelt werden. Da auch die Entitäten der Gruppen 1 und 2 Gegenstand einer Veröffentlichung sein können, sind sie gleichzeitig auch der Gruppe 3 zuzurechnen. Jede Einheit charakterisiert sich durch Eigenschaften, die mit Hilfe von Attributen beschrieben werden können. Im MAB-Format finden sich diese Attribute in Feldern wieder. Das Verhältnis zwischen den Entitäten ist in dem Modell durch Relationen beschrieben. Für die Entitäten der ersten Gruppe handelt es sich um immanente Relationen (z.B. Relation "is realized by" Beispiel: Work "is realized by" Expression) und um Relationen, die bibliographische Entitäten untereinander in Beziehung setzen (z.B. Teil-Ganzes-Beziehungen). Für Personen und Körperschaften wird mit der Relation ihre Rolle definiert (Verfasser, Übersetzer usw.). Das gilt auch für die Entitäten der dritten Gruppe, deren Rolle mit der Relation "is subject of" beschrieben ist.
    Ausgehend von den beschriebenen Entitäten lassen sich interessante Anwendungen aufbauen. In diesem Zusammenhang sei auf den FictionFinder von OCLC, den Red-Light-Green-Opac der Research Library Group und das AustLit-Projekt hingewiesen. Interessant ist in allen Projekten der Versuch der Neustrukturierung von großen Treffermengen sowie im AustLit-Projekt die mehrdimensionale Navigation, die auf den im FRBR-Modell beschriebenen Beziehungen aufsetzt. Es ist kein Zufall, dass die genannten Anwendungen aus dem Bereich der Geisteswissenschaften stammen. So lässt sich am Beispiel des World-Cat-Kataloges exemplarisch nachweisen, dass nur in etwa 20% der vorhandenen Katalogsätze alle vier FRBR-Ebenen beschrieben sind bzw. sich aus vorhandenen Katalogdaten ableiten lassen. Als prominente Beispiele werden gerne genannt die Bibel, der Koran oder Werke aus der Weltliteratur wie Goethes Faust. Für das Gros des beschriebenen Materials hingegen gilt, dass die Ebenen Work, Expression und Manifestation wenig ausgeprägt sind. Man denke hier beispielsweise an Hochschulschriften. Die Diskussion im deutschsprachigen Raum befindet sich erst in den Anfängen, was sich unter anderem daran zeigt, dass es selbst für die Terminologie noch keine gebräuchlichen deutschen Übersetzungen gibt. Weiter fortgeschritten ist die Auseinandersetzung mit dem FRBR-Modell in den USA. Nicht nur, dass die Terminologie ausdrücklich im zukünftigen Regelwerk verankert werden soll, auch liegt eine detaillierte Studie von Tom Delsey vor, der die FRBR-Entitäten mit sämtlichen Attributen auf das MARC21-Format anwendet. Als Annäherung der Expertengruppe Datenformate entstand analog zur MARC-Umsetzung eine entsprechende Tabelle für MAB. Diese Tabelle allerdings hat ausdrücklich Entwurfscharakter und wird zunächst nicht weiter bearbeitet. Daneben entstand ein kleines Programm, das MAB-Daten nach FRBR strukturiert darstellt und damit die verschiedenen Entitäten sichtbar macht.
    Footnote
    Vgl.: http://www.ddb.de/standardisierung/pdf/frbr_mab.pdf und http://www.ddb.de/standardisierung/pdf/mab_in_frbr.pdf.
  7. Braschoß, K.; Hansmann, S.; Hesse, T.; Joosten-Wilke, U.; Ristau, R.; Rusch, B.; Taylor, V.: Indexierung von Online-Katalogen : Ein gemeinsames Konzept der ALEPH-Anwender in Berlin (2004) 0.02
    0.021096457 = product of:
      0.08438583 = sum of:
        0.015256001 = weight(_text_:und in 2875) [ClassicSimilarity], result of:
          0.015256001 = score(doc=2875,freq=22.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.28425696 = fieldWeight in 2875, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2875)
        0.015256001 = weight(_text_:und in 2875) [ClassicSimilarity], result of:
          0.015256001 = score(doc=2875,freq=22.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.28425696 = fieldWeight in 2875, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2875)
        0.023361819 = weight(_text_:der in 2875) [ClassicSimilarity], result of:
          0.023361819 = score(doc=2875,freq=50.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.4318977 = fieldWeight in 2875, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2875)
        0.015256001 = weight(_text_:und in 2875) [ClassicSimilarity], result of:
          0.015256001 = score(doc=2875,freq=22.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.28425696 = fieldWeight in 2875, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2875)
        0.015256001 = weight(_text_:und in 2875) [ClassicSimilarity], result of:
          0.015256001 = score(doc=2875,freq=22.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.28425696 = fieldWeight in 2875, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2875)
      0.25 = coord(5/20)
    
    Abstract
    1. Einleitung Der Online-Katalog einer Bibliothek (auch als OPAC oder Online Public Access Catalog bezeichnet) muss sich in unterschiedlichen Szenarien bewähren. Er muss präzise gestellte Suchanfragen, die mit exakten Suchstrings arbeiten, genauso bedienen wie weite Suchen mit angenäherten Termen. In beiden Fällen erwartet der Benutzer relevante Ergebnisse. Die Relevanz eines Rechercheergebnisses wird in klassischen Retrievalsystemen wie einem BibliotheksOPAC im Allgemeinen mit den Größen "Precision" und "Recall" gemessen. Dabei steht "Precision" für die Genauigkeit und "Recall" für die Vollständigkeit der erzielten Einträge. In diesem Balanceakt zwischen der gewünschten Precision und dem Recall spielt die gewählte Indexierungsmethode in der Bibliotheksdatenbank eine entscheidende Rolle. Unberührt davon bleiben fortgeschrittene Retrievaltechniken wie linguistische Verfahren. Mit der Indexierungsmethode wird, allgemein ausgedrückt, die Repräsentation der Dokumente - in diesem Fall der in der Bibliothek vorhandenen Medien - für die Suche festgelegt. Diese beginnt mit der Erfassung von Katalogdaten, aus denen die Indexeinträge gewonnen werden. Hier hat man es in der Regel mit hoch differenzierten Datensätzen zu tun, die besonders wertvoll sind, wenn sie im Bereich von Personennamen, Körperschaftsnamen und Schlagwörtern mit Normdatensätzen arbeiten. Normdatensätze gewährleisten einerseits ein kontrolliertes Vokabular und gleichzeitig Verweisungsformen, die ebenso für die Indexierung nutzbar gemacht werden können. Damit sind die Bedingungen für relevante Ergebnismengen im Sinne von "Precision" und "Recall" günstig. Entsprechend ungünstig wirken sich so genannte Kurztitel aus, die in großer Zahl im Zuge von Retrokonversionsprojekten entstanden sind. Diese rudimentären Titelaufnahmen liefern nur eine begrenzte Menge an Indexeinträgen und weisen in der Regel keine Verknüpfungen zu Normdaten auf.
    Für die Indexierung muss zunächst die Art und der Umfang der im OPAC aufzubauenden Indices festgelegt werden. Aus Sicht des Nutzers entspricht diese Definition den möglichen Sucheinstiegen, auch Suchaspekte genannt. Hat man dann entschieden, welche Indexterme aus welchen Feldern in die jeweiligen Indices einfließen sollen, muss bestimmt werden, nach welchen Regeln die Terme behandelt werden. Hier steilt sich insbesondere das Problem der Sonderzeichen wie Bindestriche, Apostrophe und Punkte oder Ziffern in Zeichenketten. Die Frage, welche Inhalte in welcher Art in Bibliotheksdatenbanken zu indexieren seien, wurde überregional zuletzt 1999 von der Konferenz für Regelwerksfragen gestellt. Im Auftrag dieser Konferenz tagte eine Arbeits-gemeinschaft, die leider jedoch keinen formellen Abschlussbericht veröffentlichte.' Im Umfeld dieser Arbeitsgruppe sind jedoch Empfehlungen zur Indexierung von Bibliotheksdatenbanken entstanden, die sich auch für das vorliegende Papier als ausgesprochen hilfreich erwiesen haben. Zu nennen sind hier insbesondere das vom Bayerischen Bibliotheksverbund für die SISIS-Software vorgelegte Indexierungskonzept als auch der technische Lösungsansatz aus der TU Braunschweig. Die Art der Indexierung hat im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV), der auf eine zentrale Verbunddatenbank zugunsten einer dezentralen Struktur verzichtet, besondere Bedeutung. In dieser Verbundarchitektur werden sowohl Bibliotheksmitarbeiter als auch Bibliotheksbenutzer immer wieder mit der Recherche in fremden Katalogen konfrontiert, die von verschiedenen Einrichtungen betreut werden. Ein abgestimmtes Indexierungskonzept verfolgt hier zwei grundsätzliche Ziele. Einerseits soll durch eine vereinheitlichte Indexierung die Qualität und Zuverlässigkeit der Rechercheergebnisse in der parallelen Suche in mehreren Katalogen über die KOBV-Suchmaschine erhöht werden. Gleichzeitig soll durch eine vereinheitlichte Indexierung die Akzeptanz von Suchen über Z39.50 prinzipiell gesteigert und damit nicht zuletzt die Bedingungen für die gegenseitige Übernahme von Titeldaten erleichtert werden. Während das Protokoll Z39.50 einen Standard für die Formulierung einer Rechercheanfrage festlegt, gehen diese Vereinbarungen weit darüber hinaus, indem sie im Detail beschreiben, welche (Feld)-Inhalte in welcher Form in den definierten durchsuchbaren Indices abgelegt werden. Damit bildet das hier vorgelegte Konzept die Grundlage, auf der dann die jeweiligen Suchanfragen aufsetzen.
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.02
    0.019665359 = product of:
      0.078661434 = sum of:
        0.013658034 = weight(_text_:und in 181) [ClassicSimilarity], result of:
          0.013658034 = score(doc=181,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
        0.013658034 = weight(_text_:und in 181) [ClassicSimilarity], result of:
          0.013658034 = score(doc=181,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
        0.0240293 = weight(_text_:der in 181) [ClassicSimilarity], result of:
          0.0240293 = score(doc=181,freq=18.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.44423765 = fieldWeight in 181, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
        0.013658034 = weight(_text_:und in 181) [ClassicSimilarity], result of:
          0.013658034 = score(doc=181,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
        0.013658034 = weight(_text_:und in 181) [ClassicSimilarity], result of:
          0.013658034 = score(doc=181,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=181)
      0.25 = coord(5/20)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Grötschel, M.; Kuberek, M.; Lohrum, S.; Lügger, J.; Rusch, B.: ¬Der Kooperative Bibliotheksverbund Berlin-Brandenburg (1999) 0.00
    9.344728E-4 = product of:
      0.018689455 = sum of:
        0.018689455 = weight(_text_:der in 5903) [ClassicSimilarity], result of:
          0.018689455 = score(doc=5903,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34551817 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=5903)
      0.05 = coord(1/20)