Search (2772 results, page 1 of 139)

  • × type_ss:"a"
  • × language_ss:"e"
  1. 82 Millionen Titel in 470 Sprachen : Deutsche Nationalbibliothek ist Bestandteil des weltweit größten Bibliothekskatalogs (2007) 0.08
    0.07649349 = product of:
      0.15298697 = sum of:
        0.09923669 = weight(_text_:sprachen in 425) [ClassicSimilarity], result of:
          0.09923669 = score(doc=425,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.37583172 = fieldWeight in 425, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=425)
        0.026962416 = weight(_text_:und in 425) [ClassicSimilarity], result of:
          0.026962416 = score(doc=425,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27704588 = fieldWeight in 425, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=425)
        0.026787855 = product of:
          0.05357571 = sum of:
            0.05357571 = weight(_text_:allgemein in 425) [ClassicSimilarity], result of:
              0.05357571 = score(doc=425,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23221152 = fieldWeight in 425, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=425)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Mit der Bereitstellung ihrer Titeldaten im Weltkatalog der Bibliotheken ist die Deutsche Nationalbibliothek einen weiteren Schritt auf Informationssuchende zugegangen. Rund 7,9 Millionen Einträge der Deutschen Nationalbibliothek aus den Jahren 1913 bis 2007 sind im WorldCat des OCLC (Online Computer Library Center) nachgewiesen. Monatlich kommen, wie die Einrichtung mitteilt, allein aus der Deutschen Nationalbibliothek mehr als 15000 Titeldatensätze dazu. Der WorldCat (www.worldcat.org) dient in den USA - zunehmend auch weltweit - als wichtigster Sucheinstieg für Bibliotheksbestände und entwickelt sich auch für Deutschland zu einem umfangreichen Gesamtkatalog. Neben der Deutschen Nationalbibliothek sind die Staats- und Universitätsbibliothek Göttingen, die Zentral- und Landesbibliothek Berlin, die Bayerische Staatsbibliothek sowie die Verbünde GBV und BSZ im WorldCat vertreten. Elisabeth Niggemann, Generaldirektorin der Deutschen Nationalbibliothek, über die Zusammenarbeit: »Mit dem Nachweis im OCLC WorldCat sind unsere Bestände für die Öffentlichkeit nochmals besser sichtbar geworden. Bibliotheken haben die Aufgabe, ihre Bestände möglichst leicht auffindbar zu machen und sich dort zu präsentieren, wo nach Informationen gesucht wird.« Haupteinstiegspunkt für die Suche nach Informationen sind mittlerweile Suchmaschinen wie Google oder Yahoo. WorldCat hat seine Daten für diese Suchmaschinen geöffnet, sodass schon zu Beginn der Suche auf die Bestände von Bibliotheken hingewiesen wird. Darüber hinaus bietet der WorldCat eine Umkreissuche an. Informationssuchende erhalten Angaben über die nächstgelegene Bibliothek mit dem Titel im Bestand.
    Der OCLC WorldCat enthält zurzeit knapp 82 Millionen Titeleinträge in 470 Sprachen, die etwa 1,3 Milliarden Medieneinheiten aus mehr als 10 000 in der Welt verteilten Bibliotheken repräsentieren. Informationssuchende finden im WorldCat die benötigten Werke mit einem Nachweis der Bestände in den teilnehmenden Bibliotheken. Bestände sichtbar machen Für die Deutsche Nationalbibliothek ist die Teilnahme am OCLC WorldCat ein weiterer Schritt auf dem eingeschlagenen Weg, die eigenen Bestände möglichst umfassend sichtbar zu machen und den eigenen Katalog mit anderen Verzeichnissen zu vernetzen. So ist der Katalog der Deutschen Nationalbibliothek in das Portal The European Library eingebunden, er ist mit den Personeneinträgen der Wikipedia Enzyklopädie verknüpft und er bietet eine Lieferbarkeitsabfrage im Shopsystem des Deutschen Buchhandels direkt aus der Titelanzeige heraus. Zur Erläuterung: Das Online Computer Library Center (OCLC) ist eine weltweit tätige Non-Profit-Organisation mit Sitz in Dublin, Ohio. Es fungiert als Dienstleister für Bibliotheken aller Art und bietet unter anderem den frei zugänglichen WorldCat im Internet an. WorldCat ist wegweisend in der Inhaltserschließung: So gibt es erste Web 2.0 Ansätze, in denen Nutzer die Titeleinträge selbstständig verschlagworten können, beziehungsweise die Titel mit Rezensionen, Abstracts oder Kurzbiografien anreichern können."
    Theme
    Katalogfragen allgemein
  2. ¬Der Alte Realkatalog der Staatsbibliothek ist online (2006) 0.08
    0.07636239 = product of:
      0.15272477 = sum of:
        0.087713666 = weight(_text_:sprachen in 4876) [ClassicSimilarity], result of:
          0.087713666 = score(doc=4876,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 4876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.031526286 = weight(_text_:und in 4876) [ClassicSimilarity], result of:
          0.031526286 = score(doc=4876,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.32394084 = fieldWeight in 4876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4876)
        0.03348482 = product of:
          0.06696964 = sum of:
            0.06696964 = weight(_text_:allgemein in 4876) [ClassicSimilarity], result of:
              0.06696964 = score(doc=4876,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.2902644 = fieldWeight in 4876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4876)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
    Content
    "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
    Theme
    Katalogfragen allgemein
  3. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.06
    0.064778335 = product of:
      0.12955667 = sum of:
        0.091154724 = weight(_text_:sprachen in 1693) [ClassicSimilarity], result of:
          0.091154724 = score(doc=1693,freq=6.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.3452235 = fieldWeight in 1693, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.0294781 = weight(_text_:und in 1693) [ClassicSimilarity], result of:
          0.0294781 = score(doc=1693,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3028952 = fieldWeight in 1693, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.008923839 = product of:
          0.017847678 = sum of:
            0.017847678 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
              0.017847678 = score(doc=1693,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.116070345 = fieldWeight in 1693, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1693)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
  4. Effelsberg, H.: InetBib 2003 : 7. InetBib-Tagung vom 12.-14. November 2003 in Frankfurt am Main: digital & real oder: "Was ist heute schon noch wirklich virtuell?" (2004) 0.06
    0.06396505 = product of:
      0.19189516 = sum of:
        0.16806352 = weight(_text_:einzelne in 886) [ClassicSimilarity], result of:
          0.16806352 = score(doc=886,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.6502892 = fieldWeight in 886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=886)
        0.023831634 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.023831634 = score(doc=886,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24487628 = fieldWeight in 886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=886)
      0.33333334 = coord(2/6)
    
    Footnote
    Bericht über die Tagung und einzelne Beiträge
  5. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.05
    0.054942902 = product of:
      0.1648287 = sum of:
        0.117644474 = weight(_text_:einzelne in 3910) [ClassicSimilarity], result of:
          0.117644474 = score(doc=3910,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 3910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
        0.04718423 = weight(_text_:und in 3910) [ClassicSimilarity], result of:
          0.04718423 = score(doc=3910,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4848303 = fieldWeight in 3910, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  6. Lavoie, B.; Connayway, L.S.; Dempsey, L.: Anatomy of aggregate collections : the example of Google Print for libraries (2005) 0.05
    0.052054476 = product of:
      0.15616342 = sum of:
        0.122799136 = weight(_text_:sprachen in 4214) [ClassicSimilarity], result of:
          0.122799136 = score(doc=4214,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.465068 = fieldWeight in 4214, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4214)
        0.03336429 = weight(_text_:und in 4214) [ClassicSimilarity], result of:
          0.03336429 = score(doc=4214,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34282678 = fieldWeight in 4214, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4214)
      0.33333334 = coord(2/6)
    
    Abstract
    Das von Google im Dezember 2004 bekannt gegebene Google Print Library Project (GPLP), in welchem in Zusammenarbeit mit fünf großen US-amerikanischen und britischen Bibliotheken 15 Millionen Bücher digitalisiert werden sollen,hateineVielzahlvon Diskussionen ausgelöst. Der vorliegende Artikel beschäftigt sich mit der Frage der Auswahl der Bibliotheken und ihrer Sammlungen, die Google getroffen hat, und was diese Auswahl hinsichtlich ihres Ausschnitts aus den gesamten weltweiten Buchbeständen, der Überschneidungen in den Beständen der fünf Bibliotheken, der Sprachen, des Anteils an noch mit Copyright belegten Beständen, der Definition von »Werk«, das digitalisiert werden soll, sowie des Grades der Konvergenz bedeutet.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.6, S.299-310
  7. Hafter, R.: ¬The performance of card catalogs : a review of research (1979) 0.05
    0.05158174 = product of:
      0.30949044 = sum of:
        0.30949044 = sum of:
          0.21430284 = weight(_text_:allgemein in 3069) [ClassicSimilarity], result of:
            0.21430284 = score(doc=3069,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.92884606 = fieldWeight in 3069, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.125 = fieldNorm(doc=3069)
          0.09518762 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
            0.09518762 = score(doc=3069,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.61904186 = fieldWeight in 3069, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.125 = fieldNorm(doc=3069)
      0.16666667 = coord(1/6)
    
    Date
    3.10.2000 20:48:22
    Theme
    Katalogfragen allgemein
  8. Tennant, R.: ¬The print perplex : building the future catalog (1998) 0.05
    0.05158174 = product of:
      0.30949044 = sum of:
        0.30949044 = sum of:
          0.21430284 = weight(_text_:allgemein in 6462) [ClassicSimilarity], result of:
            0.21430284 = score(doc=6462,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.92884606 = fieldWeight in 6462, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.125 = fieldNorm(doc=6462)
          0.09518762 = weight(_text_:22 in 6462) [ClassicSimilarity], result of:
            0.09518762 = score(doc=6462,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.61904186 = fieldWeight in 6462, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.125 = fieldNorm(doc=6462)
      0.16666667 = coord(1/6)
    
    Source
    Library journal. 123(1998) no.19, S.22-24
    Theme
    Katalogfragen allgemein
  9. Burckhardt, D.: Historische Rezensionen online : Eine thematische Suchmaschine von Clio-online (2007) 0.05
    0.045287773 = product of:
      0.13586332 = sum of:
        0.10083812 = weight(_text_:einzelne in 292) [ClassicSimilarity], result of:
          0.10083812 = score(doc=292,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.39017352 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
        0.035025205 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.035025205 = score(doc=292,freq=12.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.35989314 = fieldWeight in 292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
      0.33333334 = coord(2/6)
    
    Abstract
    Historische Rezensionen online (HR O) ist eine auf geschichtswissenschaftliche Rezensionen fokussierte Suchmaschine. Sie berücksichtigt ausschließlich fachwissenschaftliche Besprechungen, die im Web veröffentlicht wurden und ohne Zugangsbeschränkungen im Volltext zur Verfügung stehen. Eingebunden in das Portal des DFG-geförderten Kooperationsprojektes Clio-online sind über eine einfache Suchmaske gegenwärtig mehr als 35.000 Rezensionen zu über 30.000 Publikationen im Volltext recherchierbar. Statt unter hohem Aufwand Daten zu erstellen oder manuell zu katalogisieren, werden bei HRO bereits vorhandene Texte und bibliografische Daten voll automatisiert gesammelt, verknüpft und in einem zentralen Suchindex aufbereitet. Die Spezialisierung auf eine Textsorte und die Anreicherung der Rezensionstexte mit den in der Verbunddatenbank des GBV bereits erfassten bibliografischen Informationen erlauben zudem zielgerichtete Anfragen nach bestimmten Autoren oder eingeschränkt auf einzelne Themenbereiche, ein Mehrwert für die Nutzerinnen und Nutzer von HRO gegenüber kommerziellen Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.169-172
  10. Becker, H.-G.; Höhner, K.: ¬Die ORCID-Integration der Technischen Universität Dortmund (2019) 0.04
    0.044775542 = product of:
      0.13432662 = sum of:
        0.117644474 = weight(_text_:einzelne in 5347) [ClassicSimilarity], result of:
          0.117644474 = score(doc=5347,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
        0.016682144 = weight(_text_:und in 5347) [ClassicSimilarity], result of:
          0.016682144 = score(doc=5347,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.17141339 = fieldWeight in 5347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5347)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Universitätsbibliothek Dortmund (UB) steht vor der Herausforderung, künftig Aussagen zum Publikationsverhalten ihrer Angehörigen treffen zu müssen. Dabei liegt die eine Schwierigkeit darin, Personen eindeutig Publikationen zuzuordnen. Zweitens müssen die Publikationsleistungen möglichst sowohl für einzelne Autoren als auch für alle Disziplinen umfassend nachgewiesen werden. Um beiden Herausforderungen zu begegnen, wurde ein Metadatenmanagementsystem entwickelt. Bereits bei der Konzeption dieses Systems wurde eine ORCID-Integration angestrebt, denn die UB sieht für beide genannten Herausforderungen die ORCID iD als Teil einer möglichen Lösung an. Die Ziele und die technische Umsetzung der Integration werden anhand der fünf Integrationsstufen, die ORCID bietet, vorgestellt.
  11. Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007) 0.04
    0.039320044 = product of:
      0.07864009 = sum of:
        0.04201588 = weight(_text_:einzelne in 680) [ClassicSimilarity], result of:
          0.04201588 = score(doc=680,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.1625723 = fieldWeight in 680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=680)
        0.029187672 = weight(_text_:und in 680) [ClassicSimilarity], result of:
          0.029187672 = score(doc=680,freq=48.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.29991096 = fieldWeight in 680, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=680)
        0.007436533 = product of:
          0.014873066 = sum of:
            0.014873066 = weight(_text_:22 in 680) [ClassicSimilarity], result of:
              0.014873066 = score(doc=680,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.09672529 = fieldWeight in 680, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=680)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
    Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
    Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
    Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
    Date
    4.11.2007 13:22:29
  12. Martin, S.K.: ¬The union catalogue : summary and future directions (1982) 0.04
    0.038686305 = product of:
      0.23211783 = sum of:
        0.23211783 = sum of:
          0.16072713 = weight(_text_:allgemein in 290) [ClassicSimilarity], result of:
            0.16072713 = score(doc=290,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.69663453 = fieldWeight in 290, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.09375 = fieldNorm(doc=290)
          0.07139071 = weight(_text_:22 in 290) [ClassicSimilarity], result of:
            0.07139071 = score(doc=290,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.46428138 = fieldWeight in 290, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=290)
      0.16666667 = coord(1/6)
    
    Date
    6. 1.2007 14:49:22
    Theme
    Katalogfragen allgemein
  13. TIB weltweit erste zentrale Registrierungsagentur für Primärdaten (2005) 0.04
    0.037247695 = product of:
      0.11174308 = sum of:
        0.03437047 = weight(_text_:und in 3997) [ClassicSimilarity], result of:
          0.03437047 = score(doc=3997,freq=26.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3531656 = fieldWeight in 3997, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3997)
        0.07737261 = sum of:
          0.05357571 = weight(_text_:allgemein in 3997) [ClassicSimilarity], result of:
            0.05357571 = score(doc=3997,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.23221152 = fieldWeight in 3997, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
          0.023796905 = weight(_text_:22 in 3997) [ClassicSimilarity], result of:
            0.023796905 = score(doc=3997,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.15476047 = fieldWeight in 3997, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3997)
      0.33333334 = coord(2/6)
    
    Content
    "Die TI B ist die weltweit erste Registrierungsagentur fürwissenschaftliche Primärdaten. In Zusammenarbeit mit dem Weltklimadatenzentrum am Max-Planck-Institut für Meteorologie (Hamburg), dem Geoforschungszentrum (Potsdam), dem Weltdatenzentrum MARE am Alfred-Wegener-Institut (Bremerhaven) und der Universität Bremen sowie dem Forschungszentrum L3S (Hannover) wurde das DFG-finanzierte Projekt Codata »Publikation und Zitierfähigkeit wissenschaftlicher Primärdaten« 2004 mit dem Ziel aus der Taufe gehoben, den Zugang zu wissenschaftlichen Primärdaten zu verbessern. In Codata wurde ein Modell entwickelt, welches erstmals den Nachweis und die Zitierfähigkeit von Primärdaten ermöglicht und eine dauerhafte Adressierbarkeit gewährleistet. Nutznießer dieses neuen Verfahrens sind in erster Linie Wissenschaftler, die eigene Primärdaten erheben, sowie diejenigen, die diese Daten für eigene, weiterführende Arbeiten nutzen wollen. Der klassische Weg der Veröffentlichung von Forschungsergebnissen führt über Aufsätze in Fachzeitschriften, welche im »Citation Index« aufgelistet werden. Anhand dessen findet eine Leistungsbewertung der Wissenschaftler statt. Veröffentlichungen von Primärdaten, die für Wissenschaftler zusätzliche Arbeit hinsichtlich Aufbereitung, Dokumentation und Qualitätssicherung bedeuten, wurden bisher nicht in die Bewertung mit aufgenommen. Wissenschaftliches Fehlverhalten in der Vergangenheit führte zu den so genannten »Regeln zur guten wissenschaftlichen Praxis«, empfohlen von der Deutschen Forschungsgemeinschaft (DFG). Diese Regeln beinhalten Richtlinien hinsichtlich Datenzugang und Langzeitarchivierung. Daten, die allgemein verfügbaren Publikationen zugrunde liegen, sollen auch für andere überprüfbar und ihre Erhebung nachvollziehbar sein. Gleichzeitig trägt Codata der seit langem formulierten Forderung nach freiem Online-Zugang zu jeder Art wissenschaftlicher Information Rechnung und unterstützt damit die Open Access-Initiative. Das neue Konzept der Zitierfähigkeit von Primärdaten verbindet wissenschaftliche Langzeitarchive mit traditionellen Bibliothekskatalogen, um wissenschaftliche Daten nachweisbar und zusammen mit alternativen Informationsressourcen suchbarzu machen. Die TIB speichert die Informationen zu den Primärdaten ab und versieht die Daten mit einer eindeutigen Identifikationsnummer, einem Digital Object Identifier (DOI). Nun ist jeder Wissenschaftler in der Lage, die Daten in seiner Arbeit mit der DOI als einzigartiger Kennung zu zitieren. Zitiert werden Autor, Jahr der Veröffentlichung, Titel sowie der DOI als einzigartige Zugangskennung. Wissenschaftliche Primärdaten bekommen dadurch eine eigene Identität und können als unabhängige, eigenständige Informationseinheit genutzt werden. Inzwischen wurden bereits 220000 Datensätze in der TIB registriert. Vierzig Datensätze sind mittlerweile über Tiborder, das Bestell- und Liefersystem der TIB, nachweisbar und zugänglich. Bis Ende des Jahres sollen rund 1,5 Millionen Datensätze von der TIB registriert sein. Zurzeit sind vornehmlich Messdaten aus dem Gebiet der Geowissenschaften registriert, ab 2006 wird die Registrierung von Primärdaten auch auf andere Sammelgebiete ausgeweitet."
    Date
    22. 9.2005 19:38:42
  14. Hauer, M.: Collaborative catalog enrichment : 4. Benutzertreffen intelligentCAPTURE / dandelon.com (2007) 0.03
    0.033507556 = product of:
      0.10052267 = sum of:
        0.061399568 = weight(_text_:sprachen in 515) [ClassicSimilarity], result of:
          0.061399568 = score(doc=515,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.232534 = fieldWeight in 515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.039123096 = weight(_text_:und in 515) [ClassicSimilarity], result of:
          0.039123096 = score(doc=515,freq=44.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.40200004 = fieldWeight in 515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
      0.33333334 = coord(2/6)
    
    Abstract
    dandelon.com hat im deutschsprachigen Raum die Suche nach wissenschaftlichen Büchern revolutioniert. Durch Scanning und Digitalisierung von Inhaltsverzeichnissen entsteht eine neue Qualität bei der wissenschaftlichen Literatursuche. Dahinter steckt mehr als eine einfache Volltextsuche, die Texte werden linguistisch analysiert und die Fragen mittels eines intellektuell konstruierten, großen semantischen Netzes mit 1,6 Millionen Fachbegriffen in 20 Sprachen interpretiert. Die gesamte Produktion geschieht kooperativ, länderübergreifend und ist offen für Bibliotheken, Dokumentationszentren, Verlage, Bücherhändler und andere Partner. Die Suche ist öffentlich und kostenfrei.
    Content
    "AGI - Information Management Consultants (www.agi-imc.de) hatte am 8. und 9. Mai 2007 zum vierten Mal Bibliotheken und Partner zum Erfahrungsaustausch nach Neustadt an der Weinstraße eingeladen. Die angereisten Teilnehmer betreiben bereits mittels intelligentCAPTURE die Produktion und über dandelon.com den Austausch und die Publikation (www.dandelon.com). Mittlerweile wird intelligentCAPTURE in Deutschland, Österreich, Liechtenstein, Italien und in der Schweiz eingesetzt. Die PDF-Dateien gelangen über einen Partner bis zur weltgrößten Bibliothek, der Library of Congress in Washington. In Deutschland ist der GBV - Gemeinsamer Bibliotheksverband in Göttingen (www.gbv.de) Partner von AGI und der größte Sekundärnutzer von dandelon.com. In dandelon.com sind derzeit über 220.000 Bücher suchbar, die Datenbank wächst täglich. Weitere 62.000 Titel werden nach einem Software-Update demnächst geladen; sie stammen aus Projekten mit der Staats-und Universitätsbibliothek Hamburg und der TIB Hannover. Vergleichbare Scanprojekte laufen derzeit in einer Spezialbibliothek in Hamburg, der UB Braunschweig und UB Mainz. AGI geht von 400 bis 500.000 Buchtiteln bis Ende 2007 aus. Erstmals sahen die Teilnehmer "intelligentCAPTURE mobile". Eine Lösung, welche die Scanner selbst zwischen die engsten Regale fährt und somit erheblich den Transportaufwand reduziert - der Scanner wird zum Buch transportiert, nicht Tonnen von Büchern zu Scannern. Gemeinsam mit dem führenden Anbieter von Bibliothekseinrichtungen Schulz Speyer (www.schulzspeyer.de) wurde intelligentCAPTURE mobil gemacht.
    Bis zu 530 Bücherinhaltsverzeichnisse wurden bisher von einer Person an einem Tag damit produziert. Rund 1.000 Bücher pro Tag ist die durchschnittliche Menge bei einem Scanteam mit drei Scanstationen. Digitalisiert wird immer nur der urheberrechtsfreie bzw. durch Lizenzierung zulässige Bereich. Neben Büchern werden auch Zeitschriften ausgewertet. So sind z.B. die Aufsätze aus der Zeitschrift "IWP - Information. Wissenschaft und Praxis" der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (http://www.dgi-info.de) komplett digital - und einige auch mit MP3Hördateien ergänzt. Anwendung finden seit 2006 die Lösungen von AGI auch in der Suche von Parlamentsmaterialien, also in der öffentlichen Verwaltung - konkret dem wirtschaftlich erfolgreichsten Bundesland Österreichs, Vorarlberg. Diese Leistung wird als Dienstleistung der Vorarlberger Landesbibliothek (http://vlb-katalog.vorarlberg.de) erbracht (www.vorarlberg.at/landtag/landtag/parlamentarischematerialien/recherche.htm)
    Das Highlight unter den Referaten bei dieser Tagung waren die Ausführungen des Vordenkers Andreas Prokoph, Lead Architect - Search Technologies and Portal Server Development, vom deutschen IBM Entwicklungslabor. Er sprach über Information Retrieval. Mit über 200 Patenten, darunter auch seinen eigenen, liegt IBM in diesem Forschungsfeld weit vorne. Die IBM Suchmaschine OMNIFIND soll möglichst bald die Suchtechnik hinter dandelon.com ersetzen und den Suchraum auf Kataloge, Open Archives, Verlage, Hochschul-Server ausdehnen. Schon heute basieren intelligentCAPTURE und dandelon.com weitgehend auf IBM-Technologien, konkret Lotus Notes & Domino und Lotus Sametime (www.ibm.corn/ lotus/hannover), aber auch auf integrierten Modulen anderer international führender Technologiespezialisten."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.311
  15. Aliprand, J.M.: ¬The Unicode Standard : its scope, design prin. ciples, and prospects for international cataloging (2000) 0.03
    0.03223859 = product of:
      0.19343154 = sum of:
        0.19343154 = sum of:
          0.13393928 = weight(_text_:allgemein in 4608) [ClassicSimilarity], result of:
            0.13393928 = score(doc=4608,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.5805288 = fieldWeight in 4608, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.078125 = fieldNorm(doc=4608)
          0.059492264 = weight(_text_:22 in 4608) [ClassicSimilarity], result of:
            0.059492264 = score(doc=4608,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.38690117 = fieldWeight in 4608, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4608)
      0.16666667 = coord(1/6)
    
    Date
    10. 9.2000 17:38:22
    Theme
    Katalogfragen allgemein
  16. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.03
    0.02919624 = product of:
      0.08758872 = sum of:
        0.06974104 = product of:
          0.20922312 = sum of:
            0.20922312 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.20922312 = score(doc=562,freq=2.0), product of:
                0.37227118 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0439102 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.035695355 = score(doc=562,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  17. Leuser, P.: SGML-Einsatz bei Duden und Brockhaus : ein Verlag auf neuem Weg (1993) 0.03
    0.02857481 = product of:
      0.08572443 = sum of:
        0.038130615 = weight(_text_:und in 5919) [ClassicSimilarity], result of:
          0.038130615 = score(doc=5919,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.39180204 = fieldWeight in 5919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=5919)
        0.04759381 = product of:
          0.09518762 = sum of:
            0.09518762 = weight(_text_:22 in 5919) [ClassicSimilarity], result of:
              0.09518762 = score(doc=5919,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.61904186 = fieldWeight in 5919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5919)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Source
    Infodoc. 19(1993) H.3, S.20-22
  18. Voß, J.; Hellmich, J.: »Am Kerngeschäft der Bibliothekare kann sich plötzlich jeder beteiligen« (2007) 0.03
    0.028060388 = product of:
      0.08418116 = sum of:
        0.03730241 = weight(_text_:und in 397) [ClassicSimilarity], result of:
          0.03730241 = score(doc=397,freq=10.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.38329202 = fieldWeight in 397, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=397)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 397) [ClassicSimilarity], result of:
              0.093757495 = score(doc=397,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=397)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Wikipedia-Experte Jakob Voß plädiert dafür, Opacs mit Inhalten aus Wikis, Weblogs und Bookmarking-Diensten anzureichern Auf dem Leipziger Bibliothekskongress hat Jakob Voß einen Vortrag zum Thema »Soziale Software - Hype oder Verheißung?« gehalten - und damit eine der bestbesuchten Veranstaltungen eingeleitet. Der 28-Jährige hat Informatik, Bibliothekswissenschaft und Philosophie in Chemnitz und Berlin studiert und arbeitet als Entwickler beim Gemeinsamen Bibliotheksverbund GBV in Göttingen. Seit 2002 gehörter zum Vorstand von Wikimedia Deutschland, einem »Verein zur Förderung des freien Wissens«, dessen prominentestes Förderprojekt die Web-Enzyklopädie Wikipedia ist. BuB-Redakteurin Julia Hellmich hat Jakob Voß in Leipzig interviewt.
    Theme
    Katalogfragen allgemein
  19. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.03
    0.027247211 = product of:
      0.08174163 = sum of:
        0.023712177 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.023712177 = score(doc=405,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.058029458 = sum of:
          0.040181782 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
            0.040181782 = score(doc=405,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.17415863 = fieldWeight in 405, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0234375 = fieldNorm(doc=405)
          0.017847678 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
            0.017847678 = score(doc=405,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.116070345 = fieldWeight in 405, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=405)
      0.33333334 = coord(2/6)
    
    Footnote
    Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
    Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  20. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.03
    0.025971986 = product of:
      0.07791596 = sum of:
        0.030519383 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.030519383 = score(doc=3675,freq=82.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.047396578 = sum of:
          0.026787855 = weight(_text_:allgemein in 3675) [ClassicSimilarity], result of:
            0.026787855 = score(doc=3675,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.11610576 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
          0.020608725 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.020608725 = score(doc=3675,freq=6.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.1340265 = fieldWeight in 3675, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3675)
      0.33333334 = coord(2/6)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."

Authors

Types

  • el 58
  • b 32
  • p 1
  • More… Less…

Themes