Search (1409 results, page 1 of 71)

  • × year_i:[2000 TO 2010}
  1. Lorenz, B.: Inhalterschliessung 2006 : Sitzungen der bibliothekarischen Artbeitsgruppen bei der Jahrestagung der Gesellschaft für Klassifikation an der FU Berlin, 8. und 9. März 2006 (2006) 0.09
    0.08812803 = product of:
      0.2643841 = sum of:
        0.17997763 = weight(_text_:klassifikation in 4480) [ClassicSimilarity], result of:
          0.17997763 = score(doc=4480,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.7909508 = fieldWeight in 4480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.109375 = fieldNorm(doc=4480)
        0.08440647 = weight(_text_:22 in 4480) [ClassicSimilarity], result of:
          0.08440647 = score(doc=4480,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.5416616 = fieldWeight in 4480, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.109375 = fieldNorm(doc=4480)
      0.33333334 = coord(2/6)
    
    Date
    28.12.2007 19:22:52
  2. Traiser, W.: SWD-Sachgruppen : Leitfaden zu ihrer Vergabe (2000) 0.08
    0.08464034 = product of:
      0.253921 = sum of:
        0.20568873 = weight(_text_:klassifikation in 2280) [ClassicSimilarity], result of:
          0.20568873 = score(doc=2280,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.9039438 = fieldWeight in 2280, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0625 = fieldNorm(doc=2280)
        0.048232272 = weight(_text_:22 in 2280) [ClassicSimilarity], result of:
          0.048232272 = score(doc=2280,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.30952093 = fieldWeight in 2280, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=2280)
      0.33333334 = coord(2/6)
    
    Date
    22. 3.2008 18:09:52
    RSWK
    Schlagwortnormdatei <Werk> / Klassifikation / Richtlinie
    Klassifikation / Richtlinie (ÖVK)
    Subject
    Schlagwortnormdatei <Werk> / Klassifikation / Richtlinie
    Klassifikation / Richtlinie (ÖVK)
  3. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.08
    0.082734674 = product of:
      0.24820401 = sum of:
        0.2120298 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
          0.2120298 = score(doc=562,freq=2.0), product of:
            0.37726513 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04449925 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.036174204 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
          0.036174204 = score(doc=562,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.23214069 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  4. Between data science and applied data analysis : Proceedings of the 26th Annual Conference of the Gesellschaft für Klassifikation e.V., University of Mannheim, July 22-24, 2002 (2003) 0.08
    0.07553832 = product of:
      0.22661495 = sum of:
        0.15426655 = weight(_text_:klassifikation in 4606) [ClassicSimilarity], result of:
          0.15426655 = score(doc=4606,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.67795783 = fieldWeight in 4606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.09375 = fieldNorm(doc=4606)
        0.07234841 = weight(_text_:22 in 4606) [ClassicSimilarity], result of:
          0.07234841 = score(doc=4606,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.46428138 = fieldWeight in 4606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.09375 = fieldNorm(doc=4606)
      0.33333334 = coord(2/6)
    
  5. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.07
    0.06741594 = product of:
      0.2022478 = sum of:
        0.17813167 = weight(_text_:klassifikation in 1513) [ClassicSimilarity], result of:
          0.17813167 = score(doc=1513,freq=24.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.7828383 = fieldWeight in 1513, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.024116136 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
          0.024116136 = score(doc=1513,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.15476047 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
      0.33333334 = coord(2/6)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
    Object
    PAN-Klassifikation
    D&A-Klassifikation
    PARIS-Klassifikation
  6. Ball, R.: Wissenschaftskommunikation im Wandel : Bibliotheken sind mitten drin (2009) 0.06
    0.056590986 = product of:
      0.16977295 = sum of:
        0.13359874 = weight(_text_:klassifikation in 2903) [ClassicSimilarity], result of:
          0.13359874 = score(doc=2903,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5871287 = fieldWeight in 2903, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=2903)
        0.036174204 = weight(_text_:22 in 2903) [ClassicSimilarity], result of:
          0.036174204 = score(doc=2903,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.23214069 = fieldWeight in 2903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=2903)
      0.33333334 = coord(2/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
  7. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.06
    0.056590986 = product of:
      0.16977295 = sum of:
        0.13359874 = weight(_text_:klassifikation in 3051) [ClassicSimilarity], result of:
          0.13359874 = score(doc=3051,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5871287 = fieldWeight in 3051, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
        0.036174204 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
          0.036174204 = score(doc=3051,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.23214069 = fieldWeight in 3051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.046875 = fieldNorm(doc=3051)
      0.33333334 = coord(2/6)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Date
    22. 8.2009 19:51:28
  8. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.05
    0.05290021 = product of:
      0.15870063 = sum of:
        0.12855546 = weight(_text_:klassifikation in 2460) [ClassicSimilarity], result of:
          0.12855546 = score(doc=2460,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5649649 = fieldWeight in 2460, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.03014517 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
          0.03014517 = score(doc=2460,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.19345059 = fieldWeight in 2460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
      0.33333334 = coord(2/6)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  9. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.05
    0.05290021 = product of:
      0.15870063 = sum of:
        0.12855546 = weight(_text_:klassifikation in 3220) [ClassicSimilarity], result of:
          0.12855546 = score(doc=3220,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.5649649 = fieldWeight in 3220, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.03014517 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
          0.03014517 = score(doc=3220,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.19345059 = fieldWeight in 3220, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
      0.33333334 = coord(2/6)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
  10. Heiner-Freiling, M.: DDC Deutsch 22 : formale, terminologische und inhaltliche Aspekte einer deutschen DDC-Ausgabe (2001) 0.05
    0.04989107 = product of:
      0.14967321 = sum of:
        0.08998881 = weight(_text_:klassifikation in 6993) [ClassicSimilarity], result of:
          0.08998881 = score(doc=6993,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.3954754 = fieldWeight in 6993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6993)
        0.059684392 = weight(_text_:22 in 6993) [ClassicSimilarity], result of:
          0.059684392 = score(doc=6993,freq=4.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.38301262 = fieldWeight in 6993, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6993)
      0.33333334 = coord(2/6)
    
    Abstract
    Es werden die Überlegungen im Zusammenhang mit der Einführung der Dewey-Dezimalklassifikation im deutschen Sprachraum dargestellt, wobei die künftige deutsche DDC-Ausgabe auf der Basis der 22. Auflage der Original-DDC im Mittelpunkt steht. Dringlich für eine deutsche Ausgabe sind neben Korrekturen und Expansionen für deutsche Sachverhalte, etwa im Bereich der geografischen Hilfstafel, die Schaffung eines deutschen Begriffsinventars für das Instrumentarium der DDC selbst und eine Integration der Terminologie der Schlagwortnormdatei, soweit das mit der Struktur einer Klassifikation vereinbar ist. Daneben kommt der über eine reine Übersetzung hinausgehenden Anpassung der Beispiele und Registereinträge der DDC an die Suchgewohnheiten deutschsprachiger Benutzer eine erhebliche Bedeutung zu.
  11. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.05
    0.047117736 = product of:
      0.2827064 = sum of:
        0.2827064 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
          0.2827064 = score(doc=140,freq=2.0), product of:
            0.37726513 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04449925 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.16666667 = coord(1/6)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  12. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.04
    0.041228022 = product of:
      0.24736813 = sum of:
        0.24736813 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
          0.24736813 = score(doc=306,freq=2.0), product of:
            0.37726513 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04449925 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  13. Nitzsche, J.: Inhaltserschließung von medizinischen Internetquellen und Multimediaprodukten (2001) 0.04
    0.0403492 = product of:
      0.1210476 = sum of:
        0.09090243 = weight(_text_:klassifikation in 5674) [ClassicSimilarity], result of:
          0.09090243 = score(doc=5674,freq=4.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.39949048 = fieldWeight in 5674, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5674)
        0.03014517 = weight(_text_:22 in 5674) [ClassicSimilarity], result of:
          0.03014517 = score(doc=5674,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.19345059 = fieldWeight in 5674, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5674)
      0.33333334 = coord(2/6)
    
    Abstract
    In zunehmendem Maße finden sich medizinische Informationen ausschließlich im Internet und auf Multimediaprodukten. Dies erhöht die Notwendigkeit einer inhaltlichen Erschließung dieser Medien, die über die Möglichkeiten der Suchmaschinen hinausgeht. Momentan erschließen medizinische Bibliotheken die Neuen Medien mit den traditionellen Mitteln der klassischen Inhaltserschließung konventioneller Medien: systematische Erschließung mit Klassifikationen (NLM-Klassifikation), im Internet meist in der Form strukturierter Listen, und verbale Sacherschließung mit Fachthesaurl (meist MESH oder RSWK), im Internet ergänzt um standardisierte Metadaten (wie Dublin Core DC, Learning Object Data LOD, Platform for Internet Content Selection PICS). Dies geschieht mit großem Aufwand auch deshalb, um eine Kompatibilität der Erschließung und Suchbarkeit von konventionellen und Neuen Medien sicherzustellen, obwohl die Neuen Medien eher wenig und nur in einem bestimmten Kontext genutzt werden. Hängt die geringe Nutzung der Neuen Medien möglicherweise mit einer inadäquaten Evaluierung und Systematisierung zusammen? Vor- und Nachteile der Erschließung der Neuen Medien durch systematische und verbale Klassifikation werden dargestellt. Daraus werden Empfehlungen entwickelt, welchen Anforderungen Erschließungsinstrumente für Neue Medien genügen sollten und welche Konsequenzen sich daraus für die zukünftige Inhaltserschließung Neuer Medien im Sinne einer höheren Nutzbarkeit und Nutzung ergeben (kooperative Erschließung, Bildung von Kompetenzzentren, Entwicklung neuer Erschließungsinstrumente)
    Date
    22. 3.2001 13:19:39
  14. Alex, H.; Betz, A.; Heiner-Freiling, M.; Jackenkroll, M.; Mengel, T.; Preuss, M.: Dewey-Dezimalklassifikation : DDC 22 Deutsch. Übersichten (2005) 0.04
    0.040318076 = product of:
      0.12095422 = sum of:
        0.07272195 = weight(_text_:klassifikation in 4554) [ClassicSimilarity], result of:
          0.07272195 = score(doc=4554,freq=4.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.3195924 = fieldWeight in 4554, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.03125 = fieldNorm(doc=4554)
        0.048232272 = weight(_text_:22 in 4554) [ClassicSimilarity], result of:
          0.048232272 = score(doc=4554,freq=8.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.30952093 = fieldWeight in 4554, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=4554)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist Ende 2003 in der 22. Ausgabe der Standard Edition auf Englisch erschienen und wird genau zwei Jahre später nun auch auf Deutsch veröffentlicht. Nach Übersetzungen ins Französische, Italienische, Russische und Spanische ist unter Beteiligung der drei deutschsprachigen Länder und mit Unterstützung durch die Deutsche Forschungsgemeinschaft die Voraussetzung dafür geschaffen worden, dass diese international weit verbreitete Klassifikation auch in Deutschland, Österreich und der Schweiz heimisch werden kann. Die hier vorgelegten Übersichten, die die drei obersten Ebenen oder 1 000 Klassen der DDC umfassen, ermöglichen einen Einblick in die Gliederung der gesamten Klassifikation und sind in dieser Form für Bibliotheken und wissenschaftliche Einrichtungen frei verfügbar, während die tieferen Ebenen der DDC durch das Urheberrecht geschützt sind. Die vollständige Ausgabe der DDC 22 Deutsch erscheint 2005 im Verlag K. G. Saur. Mit dem Webservice Melvil bietet Die Deutsche Bibliothek ab Januar 2006 eine deutsche Version von WebDewey an, ergänzt um ein Recherchetool für das Retrieval DDC-erschlossener Daten. Die DDC 22 ist von einer an der Fachhochschule Köln angesiedelten Arbeitsgruppe ins Deutsche übersetzt worden, unterstützt von einemTeam von Fachreferentinnen und Fachreferenten an zahlreichen Bibliotheken des deutschen Sprachraums und fachlich beraten von der Expertengruppe DDC Deutsch. Die organisatorische Leitung des Projekts DDC Deutsch lag bei Der Deutschen Bibliothek als federführendem Mitglied des Konsortiums DDC Deutsch. Ab 2006 wird die Deutsche Nationalbibliografie vollständige DDC-Notationen mitliefern, bereits seit Bibliografiejahrgang 2004 folgen die Sachgruppen der Deutschen Nationalbibliografie einer auf den beiden obersten Ebenen der DDC basierenden Gliederung. Die hier vorgelegte Übersetzung der DDC wurde mit der Herausgeberin der DDC, Joan Mitchell (OCLC, Dublin/Ohio) und ihren Mitherausgebern an der Library of Congress abgestimmt, denen wir für ihre Unterstützung und Beratung herzlich danken. Die kurze Einführung in die Dewey-Dezimalklassifikation, die hier folgt, stellt das gesamte System der DDC vor, das mit seinen Haupt- und Hilfstafeln mehr als 60 000 Klassen umfasst. Die Möglichkeiten zur Erschließung differenzierterThemen gehen daher weit über die hier vorgelegten obersten Klassen der DDC hinaus und berücksichtigen viele moderne Teildisziplinen, die man in den Übersichten vielleicht vermisst. Bei der Verwendung der Übersichten ist zu beachten, dass aus drucktechnischen Gründen in einigen Fällen Klassen nur verkürzt wiedergegeben werden können und nur durch ihre Position innerhalb einer Folge von Klassen genau zu verstehen sind. Daher sollten für die Erschließung auch die vollständigen Klassenbenennungen herangezogen werden, die unter www.ddc-deutsch.de im Netz zur Verfügung stehen.
  15. Greifeneder, E.: Hilfe auf allen Ebenen : ein Beitrag zur Forschung über Online-Hilfen in OPACs (2008) 0.04
    0.037727326 = product of:
      0.11318197 = sum of:
        0.089065835 = weight(_text_:klassifikation in 1936) [ClassicSimilarity], result of:
          0.089065835 = score(doc=1936,freq=6.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.39141914 = fieldWeight in 1936, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.03125 = fieldNorm(doc=1936)
        0.024116136 = weight(_text_:22 in 1936) [ClassicSimilarity], result of:
          0.024116136 = score(doc=1936,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.15476047 = fieldWeight in 1936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=1936)
      0.33333334 = coord(2/6)
    
    Abstract
    Viele Benutzer haben Probleme im Umgang mit OPACs - das dokumentieren zahlreiche Usability-Studien in ausreichendem Maße. Benutzer benötigen also Hilfe, genauer: sie benötigen ein Online-Hilfesystem, das ihnen beim "Discovery", "Locate" und "Request"' von Dokumenten im OPAC unabhängig von den Öffnungszeiten der Bibliothek situationsgerechte Online-Hilfen anbietet. Mit dem Ausdruck "Online-Hilfe" assoziieren viele nur einen Fragezeichen-Button oder Module wie die sprechende Büroklammer der Microsoft-Office-Applikationen. Doch Online-Hilfe umfasst viel mehr, von der Rechtschreibkorrektur in Suchfeldern bis hin zu Recommender-Systemen. Definieren lässt sich Online-Hilfe als ein computergestütztes Werkzeug im virtuellen Raum, das an kritischen Stellen den Nutzer bei der erfolgreichen Durchführung einer Aktion unterstützt und/oder kontextbezogene Informationen gibt. "Kritisch" für die erfolgreiche Nutzung eines Angebotes sind solche Stellen, "an denen bei den Nutzern ein jeweils spezifisches oder differenziertes Wissen vorausgesetzt wird"2. Eine einzelne Hilfe, etwa ein erklärender Text, kann dem Benutzer nicht auf allen Ebenen der Interaktion mit dem System helfen. Deshalb ist es notwendig, mehrere Online-Hilfen zu kombinieren; man spricht dann von einem Online-Hilfesystem. Online-Hilfe ist ein wichtiges Forschungsthema, doch ist es vor allem im Bibliotheksbereich nur mangelnd theoretisch fundiert. Eine präzise Unterscheidung und Klassifikation der verschiedenen Arten von Online-Hilfen ist dabei eine notwendige Grundlage für weiterführende Analysen. Der vorliegende Beitrag erläutert die einzelnen Arten von Online-Hilfen in OPACs anhand der von der Autorin entwickelten Klassifikation nach Funktionalitäten3. Es werden vier Arten von Online-Hilfen unterschieden: erklärende Hilfen, aufbereitende/visuelle Hilfen, sucheinschränkende Hilfen und sucherweiternde Hilfen. Während die ersten beiden am Suchergebnis nichts ändern, beeinflussen sowohl die einschränkenden als auch die erweiternden Hilfen das Suchergebnis. Abbildung 1 zeigt die Klassifikation mit ihrer weiteren Untergliederung. Die technische Komplexität der angeführten Online-Hilfen nimmt dabei - in grober Näherung - von oben nach unten zu.
    Date
    22. 6.2008 13:29:15
  16. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.04
    0.0353383 = product of:
      0.2120298 = sum of:
        0.2120298 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
          0.2120298 = score(doc=2918,freq=2.0), product of:
            0.37726513 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04449925 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.16666667 = coord(1/6)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  17. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.03
    0.03174013 = product of:
      0.09522038 = sum of:
        0.077133276 = weight(_text_:klassifikation in 1693) [ClassicSimilarity], result of:
          0.077133276 = score(doc=1693,freq=8.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.33897892 = fieldWeight in 1693, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
        0.018087102 = weight(_text_:22 in 1693) [ClassicSimilarity], result of:
          0.018087102 = score(doc=1693,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.116070345 = fieldWeight in 1693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1693)
      0.33333334 = coord(2/6)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Footnote
    Bericht der Arbeitsgruppe, insbesondere von der Öffentlichen Sitzung am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim
    Source
    Briefe zur Klassifikation. 2002, Nr.52, S.12-13
  18. Greifeneder, E.: Online-Hilfen in OPACs : Analyse deutscher Universitäts-Onlinekataloge (2007) 0.03
    0.0314743 = product of:
      0.0944229 = sum of:
        0.06427773 = weight(_text_:klassifikation in 1935) [ClassicSimilarity], result of:
          0.06427773 = score(doc=1935,freq=2.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.28248245 = fieldWeight in 1935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1935)
        0.03014517 = weight(_text_:22 in 1935) [ClassicSimilarity], result of:
          0.03014517 = score(doc=1935,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.19345059 = fieldWeight in 1935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1935)
      0.33333334 = coord(2/6)
    
    Abstract
    OPACs (Online Public Access Catalogues) sind heute meist der einzige Zugang zu den Beständen einer Bibliothek, doch zeigt die Praxis, dass viele Nutzer Probleme bei der Bedienung elektronischer Kataloge haben. Ein guter OPAC muss deshalb über ein durchdachtes Online-Hilfesystem verfügen. Die Arbeit leistet eine Bestandsaufnahme und kritische Diskussion der an deutschen Universitäts-OPACs implementierten Online-Hilfesysteme. Außer den verschiedenen Formen von Hilfetexten werden dabei auch Hilfen wie Rechtschreibkorrektur, Suchergebnisfilter und Recommender miteinbezogen. Grundlagen der Analyse sind zum einen eine funktionsbezogene Klassifikation der Hilfen, zum anderen die Einführung der Begriffe Effektivität und Effizienz, die als Parameter zur Bestimmung des Nutzens eines Hilfesystems dienen. Als Ergebnis der Untersuchung stellt die Autorin Prinzipien eines effizienten Hilfesystems vor. Das Buch richtet sich an Leser aus den Bereichen Bibliotheks- und Informationswesen sowie Mensch-Maschine-Kommunikation.
    Date
    22. 6.2008 13:03:30
  19. Lorenz, B.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Inhaltserschließung 2006: Sitzungen der bibliothekarischen Arbeitsgruppen bei der Jahrestagung der Gesellschaft für Klassifikation an der FU Berlin, 8. und 9. März 2006 (2006) 0.03
    0.031265467 = product of:
      0.0937964 = sum of:
        0.07872382 = weight(_text_:klassifikation in 461) [ClassicSimilarity], result of:
          0.07872382 = score(doc=461,freq=12.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.3459689 = fieldWeight in 461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.01953125 = fieldNorm(doc=461)
        0.015072585 = weight(_text_:22 in 461) [ClassicSimilarity], result of:
          0.015072585 = score(doc=461,freq=2.0), product of:
            0.15582879 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.04449925 = queryNorm
            0.09672529 = fieldWeight in 461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.01953125 = fieldNorm(doc=461)
      0.33333334 = coord(2/6)
    
    Content
    "Der Bereich der Inhaltserschließung befindet sich erneut in lebhafter Entwicklung. Dafür seien einige Hinweise genannt: - Klassifikatorische Erschließung gewinnt im Internet neue Bedeutung - einschließlich des Systematischen Katalogs - Die DDC Deutsch kommt in der Deutschen Nationalbibliographie zur Anwendung - Die sprachliche Kurzbeschreibung von Inhalten wird weiter von den Benutzern gefordert, sei es als normiertes Schlagwort oder als Freitext - Klassifikation und Thesaurus erweisen ihre Bedeutung im Arbeitsfeld Ontologie Die gemeinsame Tagung der Arbeitsgruppen Bibliotheken und Dezimalklassifikationen wurde eröffnet mit dem Leitreferat von Prof. Dr. Walther Umstätter (HU Berlin) "Macht die Digitalisierung die Bibliothek überflüssig?" Die Antwort des Referenten war eindeutig: Ja, wenn die Bibliothek veraltet ist - Nein, wenn Aufgaben und Ziele der Bibliothek richtig verstanden werden: Denn Digitalisierung ist ein zentrales Element der Bibliotheksarbeit. W. Umstätter legt Nachdruck auf die Feststellung, dass Klassifikationen und Thesauri nicht primär Lösungssätze sind, sondern eigentlich Fragensammlungen. Die Aufgaben der Bibliothek bestehen somit in der Vermittlung von Orientierung der Benutzer und der Präzisierung von Suchen und Finden. Höchst bemerkenswert ist in diesem Zusammenhang die Thesaurus-Renaissance, auch im Zusammenhang der Arbeit an und mit Ontologien. Der Referent erinnert generell an die vier Ebenen der Wissenserschließung: - Informationsebene - Bedeutungsebene - Wissensebene - Bewusstseinsebene. Auch die aktuelle Entwicklung kann in Richtung der Bibliothek verlaufen, so bei Google Book Search und OCLC "Find it in a Library": Ein Data Mining führt somit zu brauchbaren Rechercheresultaten. Dabei wird eine Langzeitarchivierung der Daten durch XML ermöglicht. Insgesamt wird die professionelle Inhaltserschließung Antworten ergeben, die sich bei rein automatischem Vorgehen nur schwer bis gar nicht herausfiltern lassen. Abschließend betont W. Umstätter nochmals die Tatsache, dass Information keine Ware wie jede andere ist. Deswegen wird auch die Dominanz der USgeführten Systeme auf die Dauer gefährlich für die Bereitstellung umfassender Information.
    Dem Grundsatzreferat folgte ein Sachstandsbericht: Stefan Wolf (BSZ Konstanz) sprach über "Neues zur Sacherschließung im Südwestverbund". Er erinnerte an die Übernahme der Sacherschließungsdaten aus dem Bibliotheksverbund Bayern 2003, an die Übernahme von DDC-Notationen aus dem Gemeinsamen Bibliotheksverbund 2004 und an den Beginn der Arbeit an der RVK-Normdatei im Jahr 2005. Aus der Fülle von angebotenem Material sei hier darauf verwiesen, dass der Südwestverbund inzwischen 25 Prozent seines Bestandes mit Schlagwörtern gemäß RSWK und Schlagwortnormdatei sowie 22 Prozent seines Bestandes mit Notationen gemäß RVK, aber auch DDC bzw. LCC erschlossen hat. Seit Dezember 2005 ist dominierendes Arbeitsthema die Migration zu PICA. Danach berichtete Dipl.-Math. Andreas Neumann (Karlsruhe) über RecommenderSysteme auf dem Hintergrund der Arbeit an der UB Karlsruhe. So konnte u.a. dank des Einsatzes dieser Expertensysteme festgestellt werden, dass 8o Prozent der Anfragen auf 14 Prozent des Bestandes gerichtet sind. Ein weiterer Arbeitsbericht wurde von Wladimir Rudyuk (Kiew) vorgelegt: Kriterien des Klassifizierens auf Dokumentebene im elektronischen Rechtsverkehr. Hier wurde die Brücke zur Erschließung in Archiven geschlagen und festgestellt, dass angesichts der vorhandenen Fülle von Einzellösungen erst noch Kriterien für institutionenübergreifende Klassifizierung zu erarbeiten sind. Der folgende Vortrag "Bibliometrische Anwendungen. Beispiel: Datenbankvergleiche" von Dirk Tunger (Jülich) erwies an einer Menge von Material die Bedeutung bibliometrischer Arbeit. Verglichen wurden dabei SCI und SCOPUS, wobei sich unterschiedliche Akzentsetzungen in der Erschließung und Unterschiede im Datenmaterial zeigten. Hervorstechendes Ergebnis der Untersuchung ist, dass die Bibliometrie nicht zur Qualitätsmessung geeignet ist, sondern zur Wahrnehmung von Publikationen. Dr. Hans-J. Hermes sprach danach über: Auch ein Job des Fachreferenten: ,,Titelfrüherkennung" - kann Klassifikation dabei helfen? Hier wurden am Beispiel der Recherche von Titeln mit dem "Publikationsjahr" 2007 (und folgende!) die Grenzen der Erschließung gezeigt.
    Den zweiten Tag der Jahrestagung begann Dr. Bernd Lorenz mit einem kurzen Literaturauswahlbericht. Zunächst gab er zwei allgemeine Hinweise: - Die Briefe zur Klassifikation Nr. 58, Nov. 2005 S. 8 f. enthalten einen Bericht über die AG DK während der GfKl-Tagung Magdeburg 2005. - Gemäß den "Zehn Punkten von Cottbus 2003" wird Frau Dr. Federica Paradisi ein Referat halten über "Applications of the DDC in Italy". Beim Literaturauswahlbericht wurden folgende Titel genannt: - Scott, Mona L.: Dewey Decimal Classification, 22nd edition: a study manual and number building guide (Westport/CT, 2005; XI, 348 S.) besonders S. 7 (offiziöser Text!) [vgl. S. 8: Hier spricht die Autorin sogar vom "wisdom" of the Editorial Policy Committee!!] - Bowman, J.H.: Essential Dewey. (New York, 2005; 150 S.)(kommentierender Text mit Übungen) [gut strukturiert; Basis für ein grundsätzliches Verständnis.] - Heiner-Freiling, Magda; Landry, Patrice: Die Verwendung der Dewey-Dezimalklassifikation (DDC) für die Organisation von Nationalbibliographien: die Schweiz und Deutschland/Österreich (IFLA Oslo, 2005,1.8.2005 (2. Fassung der Übersetzung), 1o S.) [besonders S. 3, 6/8 (DDC Deutsch)] Die knappen Berichte von Anwenderbibliotheken skizzieren einen Gebrauch ohne Kooperation im ohnehin sehr reduzierten Anwenderbereich der UDK in Deutschland. Die ETH Zürich hält ihre UDK-Adaption aktuell und koordiniert in gewisser Weise den Schweizer Anwenderkreis von ca. einem Dutzend kleinerer Bibliotheken. Hingewiesen wurde auf eine kleine Dewey-Ausstellung, die dankenswerterweise durch Hilfe und Initiative von Frau Dr. Margit Sandner (UB Wien) vor dem Besprechungsraum plaziert werden konnte. Sie kann bei Interesse ausgeliehen werden. Die AG DK bestimmte dann nach dem Rücktritt von Frau Rothe (Bibliothek der HTWK Leipzig) im Zusammenhang mit ihrer bevorstehenden Pensionierung, Frau Dr. Monika Lösse (DDB Leipzig) und Herrn Dr. Pika (ETH Zürich) zu neuen stellvertretenden Vorsitzenden.
    Danach schloss sich der Vortrag von Frau Dr. Monika Lösse an. Vom Projekt zur Praxis: Wie geht es nach dem Erscheinen der DDC Deutsch weiter? Die Referentin skizzierte den Ist-Stand mit Schlagwortvergabe für Publikationen der Reihe A (womit über 6o Prozent des Bucheingangs erfasst werden) und (ab 2007) mit DDC-Notationen für die Reihen A, B und H der Deutschen Nationalbibliographie. Medizinische Dissertationen erhalten dabei gröbere DDC-Nota tionen. Im neuen Projekt "Melvil" notieren und optimieren die Mitarbeiter zu einer Verbalfestlegung teilweise aus dem 19. Jahrhundert und einer Klassifikation der Mitte des 20. Jahrhunderts. Der Schwerpunkt liegt derzeit auf der Benutzerrecherche, als neues Projekt wird eine Verknüpfung vom SWD-Datensätzen und DDC-Notation angedacht. Das folgende Thema ließ den systematischen Katalog wieder aufleben. Dr. Wolfgang Heymans (BSZ Konstanz, Abteilungsleiter für Bibliothekssysteme) hielt einen Vortrag über: RVK reloaded - Regensburger Verbundklassifikation und GOOGLE-Index als Basis eines systematischen Katalogs. Und es zeigte sich eine Erfolgsgeschichte. Geladen sind derzeit 93.000 Systemstellen, die die 1,7 Millionen Titel mit RVK-Notation im SWB erschließen (von insges.10,4 Mill. Titeln). Dieses System BibScout erhielt seit Januar 2006 über 900.000 Seitenabrufe, die Google-Suche führte zu 100.000 Klicks. Quasi nebenbei ergibt sich eine Auflistung der Neuerwerbungen im SWB. Vorbilder waren neben Google und RVK-Online (Stand von 2004) das Virtuelle Bücherbrett Nordrhein-Westfalen. Der Vortrag von Frau Dr. Federica Paradisi (National- und Zentralbibliothek Florenz) befasste sich dann mit Applications of the DDC in Italy. Ausgehend von der Arbeit an der Nationalbibliographie erwies sich gerade angesichts der alten DDC-Anwendungstradition in Italien die durch die Jahrzehnte fortwährende Notwendigkeit einer Anpassung und Ergänzung der DDC auf die italienische Situation. Anschließend sprach Kerstin Zimmermann (Wien) über Information and Knowledge Management bei Austromars. Die Referentin entwickelte dabei anschaulich die informationswissenschaftlichen und -praktischen Notwendigkeiten dieses österreichischen Projekts. Den Abschluss bildete eine anregende Einführung von Mario Kowalak M.A. in "Das Informationsportal" der UB der Freien Universität Berlin. An den beiden Abenden gab es noch die gerne genutzte Gelegenheit zu einem instruktiven Rundgang durch die Universitätsbibliothek der FU unter Führung von Ltd. Bibliotheksdirektor Prof. Dr. Ulrich Naumann bzw. die Möglichkeit der Besichtigung des imposanten Neubaus der philologischen Bibliothek der UB der FU."
    Source
    Briefe zur Klassifikation. 2006, Nr.59, S.12-14
  20. 25 Jahre Gesellschaft für Klassifikation : Klassifikation und Datenanalyse im Wandel der Zeit (2001) 0.03
    0.030300811 = product of:
      0.18180487 = sum of:
        0.18180487 = weight(_text_:klassifikation in 3180) [ClassicSimilarity], result of:
          0.18180487 = score(doc=3180,freq=4.0), product of:
            0.22754593 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.04449925 = queryNorm
            0.79898095 = fieldWeight in 3180, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.078125 = fieldNorm(doc=3180)
      0.16666667 = coord(1/6)
    

Languages

Types

  • a 1143
  • m 179
  • el 74
  • s 59
  • b 26
  • x 24
  • i 8
  • n 2
  • r 2
  • More… Less…

Themes

Subjects

Classifications