Search (16 results, page 1 of 1)

  • × theme_ss:"Normdateien"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.048147015 = product of:
      0.09629403 = sum of:
        0.09629403 = sum of:
          0.07173484 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
            0.07173484 = score(doc=632,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.29396662 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.024559196 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
            0.024559196 = score(doc=632,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.13679022 = fieldWeight in 632, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
      0.5 = coord(1/2)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  2. Todt, G.H.: Normdaten-Upgrade und -pflege in Bibliotheken in virtuellen Verbünden (2002) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 271) [ClassicSimilarity], result of:
              0.13335738 = score(doc=271,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 271, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=271)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Während traditionelle Verbünde im regionalen Rahmen eigene Normdateien aufbauen und deren Daten, wenn auch im Einzelfall unter Schwierigkeiten und informationellen Einbußen, den Einzelbibliotheken zukommen lassen, können Bibliotheken in virtuellen Verbünden nicht auf diese Weise zu Norm-daten in ihren lokalen Katalogen kommen. Gleichzeitig besteht für solche Bibliotheken ein erhöhter Bedarf, im lokalen Katalog Normdaten zur Verfügung zu haben, da eine Normdatenunterstützung bei einer OPAC-Abfrage über den virtuellen Gesamtkatalog auf große praktische Probleme stößt und daher i.a. nicht gegeben ist. Ein solche Retrievalunterstützung, deren Sinnhaftigkeit außer Frage steht, ist daher umso notwendiger im lokalen OPAC und sollte deshalb in jedem Falle verwirklicht sein. Wegen des Fehlens regionaler Normdateien liegt es für Bibliotheken in virtuellen Verbünden mehr als nahe, zu diesem Zwecke auf die Daten der überregionalen Normdateien zuzugreifen. Das im folgenden zu schildernde Konzept, das an der UB der Europa-Universität in Frankfurt an der Oder durchgeführt wurde und wird, möchte hier gangbare Wege aufzeigen.
  3. Hubrich, J.: Aufwand zur Sicherstellung der Qualität und Möglichkeiten des Nutzens im OPAC (2005) 0.02
    0.022456557 = product of:
      0.044913113 = sum of:
        0.044913113 = product of:
          0.089826226 = sum of:
            0.089826226 = weight(_text_:daten in 3690) [ClassicSimilarity], result of:
              0.089826226 = score(doc=3690,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.36810443 = fieldWeight in 3690, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3690)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    »Sacherschließung - können wir uns die noch leisten?« Angesichts des zunehmend geringeren Gesamtetats, der den Bibliotheken zur Verfügung steht, drängt sich diese Frage nahezu auf. Sacherschließung ist teuer und für das moderne Bibliothekswesen nur dann noch tragbar, wenn der Mitteleinsatz in einem angemessenen Verhältnis zum Ergebnis steht, das sich in der Leistungsfähigkeit des Produkts widerspiegelt. Im deutschsprachigen Raum trägt die SWD wesentlich zu einer effektiveren Sacherschließungsarbeit bei. Ihre Pflege und Weiterentwicklung ist jedoch mit einem enormen Aufwand gekoppelt, der nur mit einer entsprechenden Nutzung der Daten für das thematische Retrieval in den OPACs gerechtfertigt werden kann.
  4. Ansorge, K.: Das was 2007 (2007) 0.02
    0.019645395 = product of:
      0.03929079 = sum of:
        0.03929079 = product of:
          0.07858158 = sum of:
            0.07858158 = weight(_text_:daten in 2405) [ClassicSimilarity], result of:
              0.07858158 = score(doc=2405,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.3220243 = fieldWeight in 2405, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2405)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  5. Oberhauser, O.; Labner, J.: Praktische Lösungen für lokale Systematiken (1) : Die neue lokale Multi-Klassifikations-Normdatei der Verbundzentrale (2007) 0.02
    0.019248476 = product of:
      0.038496953 = sum of:
        0.038496953 = product of:
          0.076993905 = sum of:
            0.076993905 = weight(_text_:daten in 496) [ClassicSimilarity], result of:
              0.076993905 = score(doc=496,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.31551808 = fieldWeight in 496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der Beitrag berichtet über eine unter der Bibliothekssoftware "Aleph 500" neu eingerichtete Normdatei, die mehrere "koexistierende" lokale Klassifikationssysteme aus den Bibliotheken des Österreichischen Bibliothekenverbundes aufzunehmen vermag. Implementiert wurden darin als erste Klassifikation jene der Universitätsbibliothek Bodenkultur (Wien), für die nach dem Auslaufen einer früheren Softwarelösung eine neue Plattform gesucht worden war. Folgende Aspekte werden im Detail angesprochen bzw. dokumentiert: Struktur und Besonderheiten dieser Klassifikation, Gliederung des Gesamtprojektes in mehrere Phasen und Realisierung der ersten Phase (Tabellen-Setup inkl. Kategorienschema, Überführung der Daten in die neue Normdatei, Indexierung). Die neue Multi-Klassifikations-Normdatei ist bereit für die Aufnahme weiterer lokaler Systematiken, wobei diese einerseits von den an der Verbundzentrale geführten Lokalsystemen, andererseits aber auch von den anderen Lokalsystemen des Verbundes stammen können.
  6. El-Sherbini, M.A.: Cataloging and classification : review of the literature 2005-06 (2008) 0.01
    0.013892779 = product of:
      0.027785558 = sum of:
        0.027785558 = product of:
          0.055571117 = sum of:
            0.055571117 = weight(_text_:22 in 249) [ClassicSimilarity], result of:
              0.055571117 = score(doc=249,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.30952093 = fieldWeight in 249, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=249)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  7. Danowski, P.; Pfeifer, B.: Wikipedia und Normdateien : Wege der Vernetzung am Beispiel der Kooperation mit der Personennamendatei (2007) 0.01
    0.013892779 = product of:
      0.027785558 = sum of:
        0.027785558 = product of:
          0.055571117 = sum of:
            0.055571117 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.055571117 = score(doc=4594,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.30952093 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    16. 7.2011 11:54:22
  8. Hickey, T.B.; Toves, J.; O'Neill, E.T.: NACO normalization : a detailed examination of the authority file comparison rules (2006) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 5760) [ClassicSimilarity], result of:
              0.048624728 = score(doc=5760,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 5760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5760)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  9. Wolverton, R.E.: Becoming an authority on authority control : an annotated bibliography of resources (2006) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 120) [ClassicSimilarity], result of:
              0.048624728 = score(doc=120,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 120, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=120)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  10. Horn, M.E.: "Garbage" in, "refuse and refuse disposal" out : making the most of the subject authority file in the OPAC (2002) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 156) [ClassicSimilarity], result of:
              0.048624728 = score(doc=156,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 156, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=156)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  11. Russell, B.M.; Spillane, J.L.: Using the Web for name authority work (2001) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 167) [ClassicSimilarity], result of:
              0.048624728 = score(doc=167,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=167)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  12. Vellucci, S.L.: Metadata and authority control (2000) 0.01
    0.012156182 = product of:
      0.024312364 = sum of:
        0.024312364 = product of:
          0.048624728 = sum of:
            0.048624728 = weight(_text_:22 in 180) [ClassicSimilarity], result of:
              0.048624728 = score(doc=180,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.2708308 = fieldWeight in 180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=180)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  13. Byrum, J.D.: ¬The emerging global bibliographical network : the era of international standardization in the development of cataloging policy (2000) 0.01
    0.008682988 = product of:
      0.017365975 = sum of:
        0.017365975 = product of:
          0.03473195 = sum of:
            0.03473195 = weight(_text_:22 in 190) [ClassicSimilarity], result of:
              0.03473195 = score(doc=190,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.19345059 = fieldWeight in 190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=190)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  14. Tillett, B.B.: Authority control at the international level (2000) 0.01
    0.008682988 = product of:
      0.017365975 = sum of:
        0.017365975 = product of:
          0.03473195 = sum of:
            0.03473195 = weight(_text_:22 in 191) [ClassicSimilarity], result of:
              0.03473195 = score(doc=191,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.19345059 = fieldWeight in 191, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=191)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  15. Behrens-Neumann, R.: Aus der 56. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. April 2009 in Wien : ein Bericht (2009) 0.01
    0.008682988 = product of:
      0.017365975 = sum of:
        0.017365975 = product of:
          0.03473195 = sum of:
            0.03473195 = weight(_text_:22 in 3041) [ClassicSimilarity], result of:
              0.03473195 = score(doc=3041,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.19345059 = fieldWeight in 3041, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3041)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 13:11:01
  16. Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008) 0.01
    0.008020199 = product of:
      0.016040398 = sum of:
        0.016040398 = product of:
          0.032080796 = sum of:
            0.032080796 = weight(_text_:daten in 2317) [ClassicSimilarity], result of:
              0.032080796 = score(doc=2317,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.13146587 = fieldWeight in 2317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2317)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.