Search (213 results, page 1 of 11)

  • × type_ss:"a"
  • × theme_ss:"Formalerschließung"
  1. Oehlschläger, S.: Aus der 49. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 23. und 24. November 2005 in Köln (2006) 0.05
    0.048147015 = product of:
      0.09629403 = sum of:
        0.09629403 = sum of:
          0.07173484 = weight(_text_:daten in 632) [ClassicSimilarity], result of:
            0.07173484 = score(doc=632,freq=10.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.29396662 = fieldWeight in 632, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
          0.024559196 = weight(_text_:22 in 632) [ClassicSimilarity], result of:
            0.024559196 = score(doc=632,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.13679022 = fieldWeight in 632, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=632)
      0.5 = coord(1/2)
    
    Content
    "Zusammenarbeit der Verbundsysteme, Verbesserung von Datentausch und Fremddatennutzung Matchkey Bei der Verwendung von Meta-Suchmaschinen zur parallelen Recherche in bibliografischen Datenbanken kommt es häufig vor, dass derselbe Titel mehrmals in der Trefferliste auftaucht. In dieser Situation könnte ein so genannter Matchkey Abhilfe schaffen, der jeden Datensatz aus den vorhandenen bibliografischen Daten heraus eindeutig identifiziert. Ein solcher Algorithmus geht von einem bibliografischen Datensatz aus und generiert einen Schlüssel (Matchkey), der wiederum in den Datensatz integriert werden kann. Der Schlüssel muss sortierfähig sein, so dass die Trefferliste nach dem Grad der Ähnlichkeit sortiert werden kann. Eine wichtige Voraussetzung für die erfolgreiche Anwendung des Matchkey ist die Beseitigung der Hausregeln in den Verbünden und Bibliotheken. Bisher hat Die Deutsche Bibliothek das Thema analysiert und strebt nun die Formulierung und Bereitstellung eines ersten Algorithmus an, um eine Implementierung zu Testzwecken voraussichtlich im März/April 2006 zu ermöglichen. Ein klares Ergebnis soll bis Ende 2006 vorliegen.
    MARC21 als Austauschformat Die Expertengruppe Datenformate hat in ihrer 5. Sitzung am 22. November 2005 die Frage der Hierarchienabbildung bei der Übernahme von MARC 21 weiter diskutiert und einer Lösung zugeführt. Für einen geringen Prozentsatz der Daten werden trotz Vorarbeiten der Expertengruppe Probleme bei der Überführung von MARC-21-Daten in MAB2-Strukturen gesehen. Es wurde darauf hingewiesen, dass es im Zusammenhang mit dem Umstieg auf MARC 21 ebenso wie bei der kooperativen Katalogisierung notwendig ist, gemeinsame Regeln festzulegen und Absprachen zwischen den Verbünden zu treffen. Eine unterschiedliche Handhabung des Formats sollte sich von vornherein verbieten. Projekt Kooperative Neukatalogisierung Die Projektgruppe hat zweimal getagt, zuletzt am 3. November 2005. Es liegen erste Ergebnisse vor, und spätestens Anfang Januar 2006 soll das Verfahren erprobt werden. Alle Verbünde signalisieren ihr Interesse an dem geplanten Verfahren, da die Eigenkatalogisierungsrate nach wie vor zu hoch ist. Für die Akzeptanz des Dienstes, der auch zum Synchronisieren der vorhandenen Aufnahmen und zum Austausch von Sacherschließungsdaten genutzt werden soll, ist die Aktualität des geplanten Neukatalogisierungspools essentiell. Ein weiteres Ziel ist auch die Optimierung der Arbeitsabläufe zwischen Verbundzentrale und Bibliotheken. Catalogue Enrichment Zur Anreicherung der Katalogdaten gibt es verschiedene Aktivitäten innerhalb der Arbeitsgemeinschaft der Verbundsysteme, die koordiniert werden müssen, damit eine Mehrfachdigitalisierung von Inhaltsverzeichnissen, Abstracts und anderen Objekten vermieden werden kann. Die Arbeitsgemeinschaft der Verbundsysteme beschließt, eine kleine Arbeitsgruppe einzusetzen, die bis spätestens Anfang Februar 2006 einen Vorschlag mit unterschiedlichen Szenarien für unterschiedliche Umgebungen vorlegen soll. Aufgabe der AG Datenanreicherung ist die Konzeption eines schnellen Dienstes für die Digitalisierung von Abstracts und Inhaltsverzeichnissen sofern sie lizenzrechtlich frei verfügbar sind, die allen Verbünden zur Verfügung gestellt werden sollen. Dazu gehören eine Übersicht über die vorhandenen Daten und eine ausgearbeitete Verfahrensvorschrift für das künftige Vorgehen.
    DDC/Melvil-Nutzungs- und Lizenzsituation Die Deutsche Bibliothek hat den Dienst Melvil vorgestellt, der auf der im Rahmen des Projektes DDC Deutsch erstellten deutschen Übersetzung der 22. Ausgabe der DDC basiert, und die Such- und Sprachgewohnheiten deutschsprachiger Benutzerinnen und Benutzer berücksichtigt. Mit Melvil wurde ein Online-Dienst entwickelt, der Bibliotheken und Informationseinrichtungen außer einem an WebDewey orientierten Klassifikationstool MelvilClass auch ein Retrievaltool MelvilSearch für die verbale Suche nach DDC-erschlossenen Dokumenten und das Browsing in der DDC-Hierarchie zur Verfügung stellt. Über die Schnittstelle MelvilSoap können Bibliotheken und Verbundzentralen, die den Dienst Melvil lizenziert haben, auch DDC-Daten zur weiteren Nutzung herunterladen. Gegenwärtig vergibt Die Deutsche Bibliothek Testlizenzen, ab 2006 kann der Dienst nach einem gestaffelten Modell kostenpflichtig genutzt werden Ergebnisse der Adhoc-Arbeitsgruppe ISBD(CR) Der Standardisierungsausschuss hatte in seiner 9. Sitzung am 15. Dezember 2004 die Anpassung der Splitregeln bei fortlaufenden Sammelwerken an die ISBD(CR) mit dem Ziel der Übernahme beschlossen. Im Januar 2005 richtete die Arbeitsstelle für Standardisierung eine Ad-hoc-AG ISBD(CR) ein, in der Vertreter der ZDB, der Expertengruppe Formalerschließung und der AGDBT (Arbeitsgemeinschaft der Datenbankteilnehmer der ZDB) unter der Federführung der Arbeitsstelle für Standardisierung zusammenarbeiteten. Auftragsgemäß konnte dem Standardisierungsausschuss am 2. August 2005 ein entscheidungsreifer Entwurf zur Anwendung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke vorgelegt werden. Die Unterlage, die dem Standardisierungsausschuss zu seiner 11. Sitzung am 1. Dezember 2005 zugeleitet wurde, wurde den Mitgliedern der Arbeitsgemeinschaft der Verbundsysteme im Vorfeld der Sitzung zur Kenntnis gegeben. Die zeitnahe Anwendung der ISBD(CR)-Splitregeln würde nicht nur in einem kleinen abgeschlossenen Bereich eine Angleichung an internationale Gepflogenheiten bedeuten, sondern sie hätte auch einige positive Auswirkungen auf die von Zeitschriftentiteln abhängigen ergänzenden Dienstleistungen. So würde z.B. die Verlinkung mit SFX-Diensten erheblich erleichtert."
  2. Lais, R.: Titelangaben von Schrifttum (1978) 0.04
    0.044913113 = product of:
      0.089826226 = sum of:
        0.089826226 = product of:
          0.17965245 = sum of:
            0.17965245 = weight(_text_:daten in 6172) [ClassicSimilarity], result of:
              0.17965245 = score(doc=6172,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.73620886 = fieldWeight in 6172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6172)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    DIN 1505 dient als bibliographische Grundlage zum Austausch von Daten zwischen Dokumentationsstellen und Bibliotheken. Vgl. RAK und DIN 1505.
  3. Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004) 0.04
    0.043914545 = product of:
      0.08782909 = sum of:
        0.08782909 = sum of:
          0.06351673 = weight(_text_:daten in 2124) [ClassicSimilarity], result of:
            0.06351673 = score(doc=2124,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26028913 = fieldWeight in 2124, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2124)
          0.024312364 = weight(_text_:22 in 2124) [ClassicSimilarity], result of:
            0.024312364 = score(doc=2124,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 2124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2124)
      0.5 = coord(1/2)
    
    Content
    "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
    Date
    5. 1.1997 9:39:22
  4. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.04
    0.039294716 = product of:
      0.07858943 = sum of:
        0.07858943 = product of:
          0.15717886 = sum of:
            0.15717886 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.15717886 = score(doc=4362,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  5. Oehlschläger, S.: Aus der 47. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 3. und 4. November 2004 in Wien (2005) 0.04
    0.03646577 = product of:
      0.07293154 = sum of:
        0.07293154 = sum of:
          0.05556557 = weight(_text_:daten in 3124) [ClassicSimilarity], result of:
            0.05556557 = score(doc=3124,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.22770557 = fieldWeight in 3124, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
          0.017365975 = weight(_text_:22 in 3124) [ClassicSimilarity], result of:
            0.017365975 = score(doc=3124,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 3124, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3124)
      0.5 = coord(1/2)
    
    Content
    Zusammenarbeit der Verbundsysteme Im Rahmen der Diskussion um das weitere Vorgehen nach Abschluss des Projekts Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) haben sich die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme darauf geeinigt, ihre Datenstrukturen zu vereinheitlichen als Voraussetzung für eine Verbesserung von Datentausch und Fremddatennutzung. Die Arbeitsgemeinschaft der Verbundsysteme hat erkannt, dass die gemeinsamen Zielvorstellungen am ökonomischsten mit der verpflichtenden Anwendung von MARC21 als Transportformat zu erreichen sind. Die Alternative "Weiterentwicklung von MAB2 zu MAB3" würde vor dem Hintergrund, dass MARC21 für die Übernahme ausländischer Fremddaten sowie für die Lieferung deutscher Daten an ausländische Kataloge und Portale ohnehin bedient werden müsste, in erheblichem Maß künftig dauerhaft zusätzliche Kapazitäten binden, die von den Unterhaltsträgern bewilligt werden müssten, was bei der derzeitigen Haushaltslage eher unwahrscheinlich erscheint. Zudem wird eine notwendige Weiterentwicklung von MAB2 zu MAB3 - konsequent wiederholbare Kategorien und Subfield-Verwendung - sich strukturell faktisch nicht mehr von einem MARC-Format unterscheiden. Eine Weiterentwicklung des bisherigen deutschen Datenaustauschformats MAB2 zu MAB3 wird daher nicht befürwortet. Für die Planungssicherheit der Bibliotheken und der Softwarehersteller ist die weitere Versorgung mit MAB2-Daten für einen Zeitrahmen von ca. 10 Jahren zu gewährleisten. Dazu ist für eine Übergangszeit auf der einen Seite die weitere Pflege von MAB2 einschließlich der für eine automatisierte Konvertierung von und nach MARC21 notwendigen Anpassung erforderlich und auf der anderen Seite die Implementierung entsprechender Programme bei den Datenlieferanten. Die weitere Pflege von MAB2 soll dabei auf unabdingbar notwendige und zugleich mit MARC21 kompatible Anpassungen beschränkt bleiben. Zur Realisierung ihrer strategischen Ziele hat die Arbeitsgemeinschaft der Verbundsysteme folgende Einzelmaßnahmen beschlossen: Entwicklung einheitlicher Verbundrichtlinien und Formulierung eines gemeinsamen Qualitätsstandards sowie Reduzierung des Datenmodells auf zwei Hierarchiestufen. Als eine der ersten Maßnahmen ist die Erstellung einer Konkordanz MAB2 zu MARC21 geplant. Zwischenzeitlich hat sich auch die Expertengruppe MABAusschuss in einem Positionspapier für MARC21 als Transportformat ausgesprochen und ist bereit, diese Konkordanz zu erstellen.
    Die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme haben weiterhin ihre Absicht bekräftigt, ihre Verbunddaten gegenseitig zum Zweck der Datenübernahme, Fernleihe und Einbindung in Portale über Z 39.50 zu nutzen. Neuerwerbungen sollen künftig kooperativ katalogisiert werden, damit nicht Kapazitäten dadurch gebunden werden, dass die gleiche Titelaufnahme mehrfach erstellt werden muss. Eine Arbeitsgruppe unter Federführung des GBV wird ein Konzept und einen Projektplan mit einzelnen Arbeitsschritten sowie bis Ende 2005 ein prototypisches Verfahren zu entwickeln. Die gegenseitige Nutzung von Fremddatenangeboten (unter Beachtung lizenzrechtlicher Rahmenbedingungen) sowie die Bereitstellung von Datensätzen und ihre Anreicherung durch Abstracts, Inhaltsverzeichnisse, Rezensionen u. ä. sind seit langem bestehende Anforderungen, deren Realisierung mit der Vereinheitlichung der Datenstrukturen und der einheitlichen Anwendung von MARC21 als Transportformat erreicht wird. Notwendige Voraussetzung zur Anreicherung von Daten ist die Entwicklung eines Match-Key-Algorith-mus. Hierzu ist ein gesondertes Projekt unter Federführung Der Deutschen Bibliothek geplant. Die Arbeitsgemeinschaft der Verbundsysteme hat den Standardisierungsausschuss gebeten, dafür Sorge zu tragen, dass das künftige deutsche Regelwerk für die Formalerschließung ihre Ziele einer Vereinheitlichung der Datenstrukturen und eines verbesserten Datentauschs mit Fremddatennutzung effektiv unterstützt. Dazu dürfen keine den AACR widersprechenden Regelungen für das Regelwerk verabschiedet werden. Außerdem dürfen strukturrelevante Aspekte im Regelwerk künftig keine Kann-Bestimmungen mehr sein. Um international übereinstimmende Entitäten zu erhalten, plädiert die Arbeitsgemeinschaft der Verbundsysteme nachdrücklich dafür, bei Verwendung einer Normdatei Individualisierung als obligatorische Bestimmung einzuführen. Eine Übereinstimmung der Entitäten bei Titeln, Personen- und Körperschaftsnamen muss erklärtes Regelwerksziel sein. Hierfür sind international übliche Regelungen einzuführen. Dringend erforderlich ist auch die Vereinheitlichung und Integration der Sonderregeln in das Regelwerk. Die Arbeitsgemeinschaft der Verbundsysteme schlägt dem Standardisierungsausschuss darüber hinaus vor, Aspekte der Functional Requirements for Bibliographic Records (FRBR) im Regelwerk in Übereinstimmung mit der internationalen Entwicklung zu berücksichtigen und durch geeignete Untersuchungen auf Expertenebene zu untermauern."
    Date
    22. 1.2005 18:53:53
  6. Oehlschläger, S.: Arbeitsgemeinschaft der Verbundsysteme : Aus der 46. Sitzung am 21. und 22. April 2004 im Bibliotheksservice-Zentrum Baden-Württemberg in Konstanz (2004) 0.03
    0.034612738 = product of:
      0.069225475 = sum of:
        0.069225475 = sum of:
          0.044913113 = weight(_text_:daten in 2434) [ClassicSimilarity], result of:
            0.044913113 = score(doc=2434,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.18405221 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
          0.024312364 = weight(_text_:22 in 2434) [ClassicSimilarity], result of:
            0.024312364 = score(doc=2434,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.1354154 = fieldWeight in 2434, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=2434)
      0.5 = coord(1/2)
    
    Content
    - Elektronischer DDC-Dienst Im Fall der deutschen Übersetzung der Dewey Decimal Classification (DDC) wurde die Idee einer Normdatei DDC-Deutsch zugunsten eines zentralen elektronischen DDC-Dienstes bei Der Deutschen Bibliothek aufgegeben. Dieser Dienst hält die übersetzten Daten bereit und stellt sie in drei verschiedenen Ausprägungen zur Verfügung: 1. Zentrales Such- und Browsingtool für Benutzer 2. Klassifikationswerkzeug für Sacherschließer 3. SOAP-Schnittstelle für den elektronischen Datenaustausch. Um die DDC künftig gewinnbringend in der Benutzung einsetzen zu können, werden Konkordanzen zu anderen Klassifikationen, insbesondere aber zur weit verbreiteten Regensburger Verbundklassifikation (RVK) benötigt. Mithilfe dieser Konkordanzen können Benutzer im OPAL Der Deutschen Bibliothek nach DDC-Notationen suchen und würden zusätzlich Ergebnisse aus den Verbünden angezeigt bekommen, die bislang nicht mit der DDC erschlossen sind. Der GBV plant eine Grunderschließung seiner Verbunddatenbank mit der DDC in 5 Ebenen. Ziel ist es, bis Ende 2005 alle Verbunddaten mit der DDC zu verbinden und damit ein bedeutendes Recherchetool zu erhalten.
  7. Carter, J.A.: PASSPORT/PRISM: authors and titles and MARC : oh my! (1993) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 527) [ClassicSimilarity], result of:
              0.11114223 = score(doc=527,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=527)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    OCLC systems and services. 9(1993) no.3, S.20-22
  8. Madison, O.M:A.: ¬The role of the name main-entry heading in the online environment (1992) 0.03
    0.027785558 = product of:
      0.055571117 = sum of:
        0.055571117 = product of:
          0.11114223 = sum of:
            0.11114223 = weight(_text_:22 in 4397) [ClassicSimilarity], result of:
              0.11114223 = score(doc=4397,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.61904186 = fieldWeight in 4397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4397)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Serials librarian. 22(1992), S.371-391
  9. BOND: Katalogisate-Pool BCS kommt gut an (2008) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 1977) [ClassicSimilarity], result of:
              0.11113114 = score(doc=1977,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 1977, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1977)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    »Die rasante Entwicklung des BOND Community System (BCS) übertrifft unsere Erwartungen«, erklärt Andreas Serr, Produktmanager der BOND-Tochter BOND Library Service GmbH &Co. KG (BLS). Bereits über 10.000 neue Datensätze wurden in den letzten Monaten von BOND-Kunden für BOND-Kunden in den gemeinsamen Datenpool erfasst. Tendenz schnell steigend. Der komplette Katalogisate-Pool, der den Nutzern kostenlos zur Verfügung steht, umfasst inzwischen fast 700.000 Katalogisate. »Das Schöne an BCS ist, dass alle davon profitieren«, unterstreicht Serr. Den Teilnehmern entstehen weder Kosten noch Mehrarbeit. Die Datenübernahme erfolgt bequem per Mausklick aus dem Daten-Pool direkt in den eigenen Katalog. Fast noch einfacher ist es, Daten in BCS zur Verfügung zu stellen. Man erfasst sein Katalogisat wie immer. Mit dem Klick zum Abspeichern landen die Daten automatisch im BCS-Pool. »Damit macht man mit seiner täglichen Arbeit viele andere Bibliotheken glücklich«, ergänzt Serr. Dank der großen Zahl und der Kooperationsbereitschaft der BOND-Anwender funktioniert das System jetzt schon prächtig. »Irgendwie ist die Idee genial und einfach zugleich!« schrieb eine Kundin, die seit Mitte März am BCS teilnimmt. Wie wird man BCS Teilnehmer? Am BCS teilnehmen können alle Anwender von BIBLIOTHECA 2000 (ab Version 2.9) und BIBLIOTHECA.net (Version 2.1). Die Erst-Anmeldung erfolgt per Anmelde-PDF, das unter www.library-service.de/ bcs.htm zum Download bereitsteht. Die Freischaltung erfolgt dann in der Regel innerhalb 24 Stunden.
  10. Wiesenmüller, H.: Informationsaufbereitung I : Formale Erfassung (2004) 0.03
    0.027221458 = product of:
      0.054442916 = sum of:
        0.054442916 = product of:
          0.10888583 = sum of:
            0.10888583 = weight(_text_:daten in 2914) [ClassicSimilarity], result of:
              0.10888583 = score(doc=2914,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.44620997 = fieldWeight in 2914, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Formale Erfassung wird auch als formale Analyse, Formalerschließung, Formalkatalogisierung, alphabetische Katalogisierung oder Titelaufnahme bezeichnet. Dabei wird der letzte Terminus nicht nur für den Vorgang der Erfassung verwendet, sondern kann auch sein Ergebnis beschreiben. Andere Bezeichnungen dafür sind Katalogisat oder Metadaten (Daten über Daten). Unter formaler Erfassung versteht man die konsistent nach bestimmten Regeln erfolgende Beschreibung und das Wiederauffindbar-Machen von Objekten nach äußerlichen, formalen Kriterien. Gegenstand einer formalen Erfassung können Objekte aller Art sein, also beispielsweise auch die Produktionspalette eines Industrieunternehmens. Im Informations- und Dokumentationswesen bezieht sich die formale Erfassung üblicherweise auf Dokumente (z. B. Druckschriften, audiovisuelle Materialien, Archivalien, Internet-Ressourcen, Museumsobjekte), wobei je nach Dokumenttyp unterschiedliche Merkmale zu erfassen sind. Die Formalerschließung stellt seit jeher eine zentrale Aufgabe von IuD-Institutionen dar. Sie bildet sozusagen das Fundament, auf dem die inhaltliche Erschließung aufsetzt. Diese erfolgt im deutschsprachigen Raum oft erst in einem zweiten, deutlich getrennten Arbeitsschritt. Im angelsächsischen Gebiet werden hingegen formale und sachliche Erschließung typischerweise gleichzeitig und durch denselben Bearbeiter vorgenommen.
  11. Gömpel, R.; Hoffmann, L.: Daten und Fakten für künftige Entscheidungen : Das Projekt "Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)" (2003) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 1557) [ClassicSimilarity], result of:
              0.10265854 = score(doc=1557,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 1557, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1557)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  12. Kaestner, J.: ¬Das Regelwerk im Workflowprozess : Ergänzung zum Beitrag von Imgart Siebert, "Positionen zu RAK/AACR/RDA" (2006) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 4948) [ClassicSimilarity], result of:
              0.10265854 = score(doc=4948,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 4948, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4948)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Ergänzend zu dem höchst informativen Aufsatz von Imgart Siebert, "Positionen zu RAK/AACR/RDA"' ist es wichtig, darüber hinaus gehend erneut auf das zugrunde liegende strukturelle Problem hinzuweisen. Zur Zeit der Entwicklung der RAK und auch der AACR war die Zielsetzung die Modernisierung bzw. Erstellung eines Regelwerks, das sich gemäß dem technologischen Stand auf den Zweck der Erfassung des Bibliotheksbestands konzentrierte. Heute aber besteht die Aufgabe nicht darin, ein katalogimmanentes Regelwerk zu entwerfen, sondern einen Workflow vom Produzenten (Verlag) über die Bibliothek bis hin zum Endbenutzer (Käufer oder Bibliotheksbenutzer) ohne Medienbruch zu gewährleisten (siehe dazu auch Jürgen Kaestner, "Die Katalogisierung der Zukunft`). Wozu die Bibliotheken nicht in der Lage sind, haben inzwischen die Verlage geschafft. Mit dem ONIX-Standard wurde ein derartiges internationales, auf XML basiertes Regelwerk entwickelt, das einen Workflow über die gesamte Verwertungskette des Buchhandels gestattet http://www.editeur.org/. Dieses wird in der Diskussion, auch im Abschlussbericht des Projektes Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2) aber nur als nichtbibliothekarischer Standard für bibliographische Daten wahrgenommen. Diese Erkenntnisschranke ist darauf zurückzuführen, dass es immer noch undenkbar ist, die Bibliotheken mit einer veränderten Aufgabenstellung in einen Workflowprozess einzubringen, nämlich in der Funktion einer Institution, die kooperativ Normdateien entwickelt, pflegt und weiterentwickelt und nach bibliothekarischen Zwecken erforderliche Regelwerksstrukturen einbringt statt jedes einzelne Buch händisch (mit oder ohne Fremddatennutzung) zu katalogisieren. Regelwerksarbeit müsste sich an dieser aktuellen Aufgabenstellung orientieren. Man muss davon ausgehen, dass bei der Generierung und Verteilung bibliographischer Daten die Bibliotheken in diesem Prozess spätestens dann keine Rolle mehr spielen werden, wenn die ONIX-Daten - bibliographische Daten, Abstracts, Inhaltsangaben, Inhaltsverzeichnisse und weiteres ergänzendes Informationsmaterial - mittels RFID mit den einzelnen Büchern transportiert werden. Ihre Erfahrung mit der Strukturierung von Normdaten werden dann ebenso unberücksichtigt bleiben wie schon die klassischen dokumentarischen Instrumente bei der Entwicklung von Internet-Suchmaschinen und -Katalogen keine Rolle gespielt haben. Über die Fragen des Nutzens und der Kosten eines derart starr durchgehaltenen antiquierten Ansatzes des klassischen Katalogisierungsregelwerks, der eine ungeheure Verschwendung von Ressourcen zur Folge hat und den eigentlich aktuellen Aufgaben, der Inhaltserschließung konventioneller und digitaler Medien, der Informationsvermittlung und Personalisierung von Informationsdiensten für den Benutzer, Personal und Mittel entziehen wird, werden letztlich die Rechnungshöfe des Bundes und der Länder befinden."
  13. Gömpel, R.; Altenhöner, R.; Kunz, M.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 70. IFLA-Generalkonferenz in Buenos Aires : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICABS und UNIMARC sowie der Information Technology Section (2004) 0.03
    0.025094029 = product of:
      0.050188057 = sum of:
        0.050188057 = sum of:
          0.036295276 = weight(_text_:daten in 2874) [ClassicSimilarity], result of:
            0.036295276 = score(doc=2874,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.14873666 = fieldWeight in 2874, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
          0.013892779 = weight(_text_:22 in 2874) [ClassicSimilarity], result of:
            0.013892779 = score(doc=2874,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.07738023 = fieldWeight in 2874, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=2874)
      0.5 = coord(1/2)
    
    Abstract
    "Libraries: Tools for Education and Development" war das Motto der 70. IFLA-Generalkonferenz, dem Weltkongress Bibliothek und Information, der vom 22.-27. August 2004 in Buenos Aires, Argentinien, und damit erstmals in Lateinamerika stattfand. Rund 3.000 Teilnehmerinnen und Teilnehmer, davon ein Drittel aus spanischsprachigen Ländern, allein 600 aus Argentinien, besuchten die von der IFLA und dem nationalen Organisationskomitee gut organisierte Tagung mit mehr als 200 Sitzungen und Veranstaltungen. Aus Deutschland waren laut Teilnehmerverzeichnis leider nur 45 Kolleginnen und Kollegen angereist, womit ihre Zahl wieder auf das Niveau von Boston gesunken ist. Erfreulicherweise gab es nunmehr bereits im dritten Jahr eine deutschsprachige Ausgabe des IFLA-Express. Auch in diesem Jahr soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie der neuen Sektion Knowledge Management bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Erstmals wird auch ausführlich über die Arbeit der Core Activities ICABS und UNIMARC und der Information Technology Section berichtet.
    Content
    Cataloguing Section (Sektion Katalogisierung) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. In Anbetracht des laufenden Evaluierungsprozesses wurde der Strategieplan der Sektion zum jetzigen Zeitpunkt nur dort aktualisiert, wo es unbedingt erforderlich war. Neue Ziele wurden nicht aufgenommen. Oberste Priorität bei den strategischen Zielen behielt die Entwicklung internationaler Katalogisierungsstandards für die bibliographische Beschreibung und den Zugriff. In ihrer zentralen Bedeutung bestätigt wurden auch die "Functional Requirements for Bibliographic Records" (FRBR). Darüber hinaus gehört auch in Zukunft die Weiterentwicklung und Revision der ISBDs zu den zentralen Anliegen der Arbeit der Sektion Katalogisierung. Ein weiteres vorrangiges Ziel bleibt die Erarbeitung von Standards, Regeln und Informationslisten, um den Zugang zu bibliographischen Daten in allen Sprachen zu ermöglichen. Hierzu zählen u. a.: - die vollständige Veröffentlichung der Anonymous Classics: Der Teil für europäische Literatur ist inzwischen veröffentlicht'. Für die Erarbeitung weiterer Teile (Lateinamerika, Afrika und Asien) soll das Verfahren gestrafft und ein Zeitplan erstellt werden. - die Beobachtung der Aktivitäten zu Unicode und die Information der Sektionsmitglieder darüber zur Förderung des mehrsprachigen Zugangs zu bibliographischer Information - die Entwicklung eines web-basierten multilingualen Wörterbuchs für Katalogisierungsbegriffe - die Entwicklung und der Test von (Daten-)Modellen für eine virtuelle internationale Normdatei - die Überarbeitung der "IFLA Names of persons". Das Open Programme der Sektion stand in diesem Jahr unter dem Motto "Developments in Cataloguing Guidelines" und wurde von Barbara Tillett, Lynne Howarth und Carol van Nuys bestritten. Lynne Howarth ging in ihrem Vortrag "Enabling metadata: creating a core record for resource discovery" auf die Reaktionen im weltweiten Stellungnahmeverfahren auf die Veröffentlichung des Papiers "Guidance an the Structure, Content and Application of Metadata Records for digital resources and collections" der Working Group an the Use of Metadata Schemes ein. Carol van Nuys stellte das norwegische "Paradigma Project and its quest for metadata solutions and services" vor.
  14. Gumbrecht, C.: Workshop zur CJK-Katalogisierung am 18. Juni 2009 an der Staatsbibliothek zu Berlin : ein Bericht (2009) 0.02
    0.024723385 = product of:
      0.04944677 = sum of:
        0.04944677 = sum of:
          0.032080796 = weight(_text_:daten in 3042) [ClassicSimilarity], result of:
            0.032080796 = score(doc=3042,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.13146587 = fieldWeight in 3042, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3042)
          0.017365975 = weight(_text_:22 in 3042) [ClassicSimilarity], result of:
            0.017365975 = score(doc=3042,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.09672529 = fieldWeight in 3042, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3042)
      0.5 = coord(1/2)
    
    Abstract
    Es folgte ein Überblick über die derzeitige Praxis der Katalogisierung chinesischer bzw. japanischer Bestände (da zu wenige Vertreter aus Bibliotheken mit koreanischen Beständen anwesend waren, wurde dieser Teil auf dem Workshop weitestgehend ausgeklammert) an fünf verschiedenen deutschen Einrichtungen, in dem deutlich wurde, dass die Bedingungen unter denen gearbeitet wird (Personal- und Sachmittel) äußerst unterschiedlich sind und dass die einzelnen Institutionen untereinander kaum vernetzt sind bzw. Informationen austauschen. Matthias Kaun, Anne Labitzky-Wagner (Institut für Sinologie, Universität Heidelberg) und Julia Welsch (Asien-Afrika-Institut, Universität Hamburg) gaben einen Einblick in die chinesischsprachige, Ursula Flache (Staatsbibliothek zu Berlin), Aoki Hisae (Japan-Zentum, Philipps-Universität Marburg) und Dr. Klaus Gottheiner (Universitätsbibliothek Trier) in die japanischsprachige Katalogisierungspraxis. Erstere reicht von der kompletten Datenübernahme aus China im Fall der SBB, Fremddaten werden via Z39.50 aus China (von der National Library of China, Beijing übernommen - seit Mai diesen Jahres sind diese Daten in oben erwähnter separater Datenbank des GBV zu recherchieren -, bis hin zum Angebot eines Digitalen Zettelkatalogs für Altdaten an der Bibliothek des Asien-Afrika-Instituts/Abteilung Sprache und Kultur Chinas der Universität Hamburg bzw. Katalogisierung neuer Titel ausschließlich in lateinischer Umschrift bei paralleler Führung einer separaten Word-Datei in Originalschrift.
    Date
    22. 8.2009 10:44:16
  15. Bärhausen, A.; Euskirchen, A.: Nachbearbeitung der Katalog-Konversion oder : Es bleibt viel zu tun, packen wir's an! (1999) 0.02
    0.024559196 = product of:
      0.049118392 = sum of:
        0.049118392 = product of:
          0.098236784 = sum of:
            0.098236784 = weight(_text_:22 in 4367) [ClassicSimilarity], result of:
              0.098236784 = score(doc=4367,freq=4.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.54716086 = fieldWeight in 4367, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4367)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:36:10
    22. 1.2000 19:40:40
  16. Houissa, A.: Arabic personal names : their components and rendering in catalog entries (1991) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 2857) [ClassicSimilarity], result of:
              0.097249456 = score(doc=2857,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 2857, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2857)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Cataloging and classification quarterly. 13(1991) no.2, S.3-22
  17. Jones, E.: ¬The FRBR model as applied to continuing resources (2005) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 2900) [ClassicSimilarity], result of:
              0.097249456 = score(doc=2900,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 2900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2900)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    10. 9.2000 17:38:22
  18. Münnich, M.: RAK2: Sachstandsbericht : vom Bibliothekartag '95 zum Bibliothekartag '96 (1996) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.097249456 = score(doc=4594,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    21. 9.1996 16:03:22
  19. Hirons, J.; Hawkins, L.; French, P.: AACR2 and you : revisiting AACR2 to accomodate seriality (2000) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 6339) [ClassicSimilarity], result of:
              0.097249456 = score(doc=6339,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 6339, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6339)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    18. 8.2002 17:22:13
  20. Weber, R.: "Functional requirements for bibliographic records" und Regelwerksentwicklung (2001) 0.02
    0.024312364 = product of:
      0.048624728 = sum of:
        0.048624728 = product of:
          0.097249456 = sum of:
            0.097249456 = weight(_text_:22 in 6838) [ClassicSimilarity], result of:
              0.097249456 = score(doc=6838,freq=2.0), product of:
                0.17953913 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5416616 = fieldWeight in 6838, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6838)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Dialog mit Bibliotheken. 13(2001) H.3, S.20-22

Years

Languages

  • e 147
  • d 62
  • i 2
  • f 1
  • s 1
  • More… Less…

Types