Search (358 results, page 1 of 18)

  • × theme_ss:"Metadaten"
  1. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.024253089 = product of:
      0.097012356 = sum of:
        0.054268837 = weight(_text_:revolution in 115) [ClassicSimilarity], result of:
          0.054268837 = score(doc=115,freq=2.0), product of:
            0.16262007 = queryWeight, product of:
              6.0408955 = idf(docFreq=285, maxDocs=44218)
              0.026919862 = queryNorm
            0.3337155 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0408955 = idf(docFreq=285, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.006316973 = product of:
          0.018950919 = sum of:
            0.018950919 = weight(_text_:k in 115) [ClassicSimilarity], result of:
              0.018950919 = score(doc=115,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.19720423 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=115)
          0.33333334 = coord(1/3)
        0.012961377 = weight(_text_:internet in 115) [ClassicSimilarity], result of:
          0.012961377 = score(doc=115,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.16308975 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.02346516 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.02346516 = score(doc=115,freq=20.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.390223 = fieldWeight in 115, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.25 = coord(4/16)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
  2. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.01
    0.014878988 = product of:
      0.07935461 = sum of:
        0.018330155 = weight(_text_:internet in 5808) [ClassicSimilarity], result of:
          0.018330155 = score(doc=5808,freq=4.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.23064373 = fieldWeight in 5808, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.019632362 = weight(_text_:der in 5808) [ClassicSimilarity], result of:
          0.019632362 = score(doc=5808,freq=14.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.326484 = fieldWeight in 5808, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
        0.041392088 = weight(_text_:gesellschaft in 5808) [ClassicSimilarity], result of:
          0.041392088 = score(doc=5808,freq=4.0), product of:
            0.119426325 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.026919862 = queryNorm
            0.346591 = fieldWeight in 5808, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5808)
      0.1875 = coord(3/16)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
    Theme
    Internet
  3. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.01
    0.012792045 = product of:
      0.068224244 = sum of:
        0.029328248 = weight(_text_:internet in 1511) [ClassicSimilarity], result of:
          0.029328248 = score(doc=1511,freq=4.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.36902997 = fieldWeight in 1511, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.029081656 = weight(_text_:der in 1511) [ClassicSimilarity], result of:
          0.029081656 = score(doc=1511,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4836247 = fieldWeight in 1511, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1511)
        0.009814339 = product of:
          0.029443016 = sum of:
            0.029443016 = weight(_text_:29 in 1511) [ClassicSimilarity], result of:
              0.029443016 = score(doc=1511,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.31092256 = fieldWeight in 1511, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1511)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
    Date
    29. 8.2000 11:59:32
    Theme
    Internet
  4. Baker, T.: Dublin Core Application Profiles : current approaches (2010) 0.01
    0.011292317 = product of:
      0.06022569 = sum of:
        0.017808804 = weight(_text_:der in 3737) [ClassicSimilarity], result of:
          0.017808804 = score(doc=3737,freq=8.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.29615843 = fieldWeight in 3737, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3737)
        0.03512235 = weight(_text_:gesellschaft in 3737) [ClassicSimilarity], result of:
          0.03512235 = score(doc=3737,freq=2.0), product of:
            0.119426325 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.026919862 = queryNorm
            0.29409218 = fieldWeight in 3737, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.046875 = fieldNorm(doc=3737)
        0.007294539 = product of:
          0.021883616 = sum of:
            0.021883616 = weight(_text_:22 in 3737) [ClassicSimilarity], result of:
              0.021883616 = score(doc=3737,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.23214069 = fieldWeight in 3737, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3737)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  5. Essen, F. von: Metadaten - neue Perspektiven für die Erschließung von Netzpublikationen in Bibliotheken : Erster META-LIB-Workshop in Göttingen (1998) 0.01
    0.011075287 = product of:
      0.0590682 = sum of:
        0.025922755 = weight(_text_:internet in 2275) [ClassicSimilarity], result of:
          0.025922755 = score(doc=2275,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.3261795 = fieldWeight in 2275, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=2275)
        0.020987878 = weight(_text_:der in 2275) [ClassicSimilarity], result of:
          0.020987878 = score(doc=2275,freq=4.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34902605 = fieldWeight in 2275, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2275)
        0.012157566 = product of:
          0.036472697 = sum of:
            0.036472697 = weight(_text_:22 in 2275) [ClassicSimilarity], result of:
              0.036472697 = score(doc=2275,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.38690117 = fieldWeight in 2275, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2275)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Content
    Bericht über den Workshop, der am 22. u. 23.6.98 in der SUB Göttingen stattfand
    Theme
    Internet
  6. Guerrini, M.: Metadata: the dimension of cataloging in the digital age (2022) 0.01
    0.01057049 = product of:
      0.08456392 = sum of:
        0.07597637 = weight(_text_:revolution in 735) [ClassicSimilarity], result of:
          0.07597637 = score(doc=735,freq=2.0), product of:
            0.16262007 = queryWeight, product of:
              6.0408955 = idf(docFreq=285, maxDocs=44218)
              0.026919862 = queryNorm
            0.46720168 = fieldWeight in 735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0408955 = idf(docFreq=285, maxDocs=44218)
              0.0546875 = fieldNorm(doc=735)
        0.008587547 = product of:
          0.025762638 = sum of:
            0.025762638 = weight(_text_:29 in 735) [ClassicSimilarity], result of:
              0.025762638 = score(doc=735,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27205724 = fieldWeight in 735, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=735)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Metadata creation is the process of recording metadata, that is data essential to the identification and retrieval of any type of resource, including bibliographic resources. Metadata capable of identifying characteristics of an entity have always existed. However, the triggering event that has rewritten and enhanced their value is the digital revolution. Cataloging is configured as an action of creating metadata. While cataloging produces a catalog, that is a list of records relating to various types of resources, ordered and searchable, according to a defined criterion, the metadata process produces the metadata of the resources.
    Date
    29. 9.2022 18:11:09
  7. Christof, J.: Metadata sharing : Die Verbunddatenbank Internetquellen der Virtuellen Fachbibliothek Politikwissenschaft und der Virtuellen Fachbibliothek Wirtschaftswissenschaften (2003) 0.01
    0.010450687 = product of:
      0.055737 = sum of:
        0.018145926 = weight(_text_:internet in 1916) [ClassicSimilarity], result of:
          0.018145926 = score(doc=1916,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 1916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1916)
        0.025446448 = weight(_text_:der in 1916) [ClassicSimilarity], result of:
          0.025446448 = score(doc=1916,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4231716 = fieldWeight in 1916, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1916)
        0.012144625 = product of:
          0.036433876 = sum of:
            0.036433876 = weight(_text_:29 in 1916) [ClassicSimilarity], result of:
              0.036433876 = score(doc=1916,freq=4.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.38474706 = fieldWeight in 1916, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1916)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Im Kontext der durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekte "Virtuelle Fachbibliothek Politikwissenschaft" und "Virtuelle Fachbibliothek Wirtschaftswissenschaften" wird für den Nachweis von Onlinequellen jeweils ein Fachinformationsführer aufgebaut. Die verantwortlichen Institutionen, die Staatsund Universitätsbibliothek Hamburg (SUB Hamburg), die Universitäts- und Stadtbibliothek Köln (USB Köln) und die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW Kiel) haben dazu ein Metadatenkonzept in Abstimmung mit nationalen und internationalen Entwicklungen auf Basis von Dublin Core entwickelt und dieses Konzept beim Aufbau der Verbunddatenbank Internetquellen umgesetzt.
    Date
    29. 9.2022 16:17:51
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
    Theme
    Internet
  8. Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001) 0.01
    0.010424421 = product of:
      0.08339537 = sum of:
        0.025446448 = weight(_text_:der in 5775) [ClassicSimilarity], result of:
          0.025446448 = score(doc=5775,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4231716 = fieldWeight in 5775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
        0.05794892 = weight(_text_:gesellschaft in 5775) [ClassicSimilarity], result of:
          0.05794892 = score(doc=5775,freq=4.0), product of:
            0.119426325 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.026919862 = queryNorm
            0.48522738 = fieldWeight in 5775, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5775)
      0.125 = coord(2/16)
    
    Abstract
    Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Rusch-Feja, D.: Nationale und internationale Ansätze zur Vereinheitlichung von Metadaten im Bildungsbereich (2001) 0.01
    0.010424421 = product of:
      0.08339537 = sum of:
        0.025446448 = weight(_text_:der in 5859) [ClassicSimilarity], result of:
          0.025446448 = score(doc=5859,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4231716 = fieldWeight in 5859, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5859)
        0.05794892 = weight(_text_:gesellschaft in 5859) [ClassicSimilarity], result of:
          0.05794892 = score(doc=5859,freq=4.0), product of:
            0.119426325 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.026919862 = queryNorm
            0.48522738 = fieldWeight in 5859, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5859)
      0.125 = coord(2/16)
    
    Abstract
    Die vielen Aktivitäten und Anzahl von Partnern, die an diesen Gruppen teilnehmen, zeigen, wie wichtig die Vereinheitlichung und semantische Interoperabilität der Metadaten im Bildungsbereich ist. Beispiele der einzlnen Metadatensätze können den Konkordanzen von Stuart Sutton entnommen werden, wobei deutlich ist, dass die Übereinstimmung mancher Konzepte hinter den Metadatenkategorien nicht vorhanden ist. Die gemeinsame Arbeit der Gruppen hat gerade angefangen und in den nächsten Monaten können Ergebnisse dieser Standardisierungsprozesses erwartet werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  10. Schneider, S.: Recherche und Literaturbestellung leicht gemacht! : MedPilot - Virtuelle Fachbibliothek Medizin (2003) 0.01
    0.0097837355 = product of:
      0.05217992 = sum of:
        0.018145926 = weight(_text_:internet in 1914) [ClassicSimilarity], result of:
          0.018145926 = score(doc=1914,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 1914, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
        0.025446448 = weight(_text_:der in 1914) [ClassicSimilarity], result of:
          0.025446448 = score(doc=1914,freq=12.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.4231716 = fieldWeight in 1914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
        0.008587547 = product of:
          0.025762638 = sum of:
            0.025762638 = weight(_text_:29 in 1914) [ClassicSimilarity], result of:
              0.025762638 = score(doc=1914,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27205724 = fieldWeight in 1914, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1914)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    MedPilot (www.medpilot.de) ist ein Gemeinschaftsprojekt der Deutschen Zentralbibliothek für Medizin (ZBMed) und des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI). Im Rahmen der Virtuellen Fachbibliotheken wird MedPilot von der Deutschen Forschungsgemeinschaft (DFG) gefördert. MedPilot basiert auf der Software SISIS-Elektra, welche im Rahmen des Projektes weiterentwickelt wurde. Projektstart im August 2001, Testbetrieb seit Juli 2002, offizielle Eröffnung im Februar 2003
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
    Theme
    Internet
  11. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.01
    0.009368025 = product of:
      0.049962796 = sum of:
        0.018145926 = weight(_text_:internet in 1758) [ClassicSimilarity], result of:
          0.018145926 = score(doc=1758,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 1758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.023229323 = weight(_text_:der in 1758) [ClassicSimilarity], result of:
          0.023229323 = score(doc=1758,freq=10.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.38630107 = fieldWeight in 1758, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
        0.008587547 = product of:
          0.025762638 = sum of:
            0.025762638 = weight(_text_:29 in 1758) [ClassicSimilarity], result of:
              0.025762638 = score(doc=1758,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27205724 = fieldWeight in 1758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1758)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
    Date
    17. 8.2003 15:29:05
  12. Organizing Internet resources : metadata and the Web (1997) 0.01
    0.008575117 = product of:
      0.06860094 = sum of:
        0.05387943 = weight(_text_:internet in 2562) [ClassicSimilarity], result of:
          0.05387943 = score(doc=2562,freq=6.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.67795134 = fieldWeight in 2562, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.09375 = fieldNorm(doc=2562)
        0.014721508 = product of:
          0.044164523 = sum of:
            0.044164523 = weight(_text_:29 in 2562) [ClassicSimilarity], result of:
              0.044164523 = score(doc=2562,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.46638384 = fieldWeight in 2562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2562)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Content
    A special section devoted to organizing Internet resources
    Source
    Bulletin of the American Society for Information Science. 24(1997) no.1, Oct./Nov., S.4-29
    Theme
    Internet
  13. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.008189762 = product of:
      0.065518096 = sum of:
        0.019435044 = weight(_text_:der in 4440) [ClassicSimilarity], result of:
          0.019435044 = score(doc=4440,freq=28.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.32320264 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.046083055 = weight(_text_:dinge in 4440) [ClassicSimilarity], result of:
          0.046083055 = score(doc=4440,freq=2.0), product of:
            0.17911027 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.026919862 = queryNorm
            0.25728872 = fieldWeight in 4440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.125 = coord(2/16)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  14. Qualität in der Inhaltserschließung (2021) 0.01
    0.007854427 = product of:
      0.06283542 = sum of:
        0.03835956 = weight(_text_:intelligenz in 753) [ClassicSimilarity], result of:
          0.03835956 = score(doc=753,freq=2.0), product of:
            0.1528589 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.026919862 = queryNorm
            0.2509475 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.02447586 = weight(_text_:der in 753) [ClassicSimilarity], result of:
          0.02447586 = score(doc=753,freq=34.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.40703082 = fieldWeight in 753, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.125 = coord(2/16)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  15. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.006747472 = product of:
      0.035986517 = sum of:
        0.005053579 = product of:
          0.015160736 = sum of:
            0.015160736 = weight(_text_:k in 2787) [ClassicSimilarity], result of:
              0.015160736 = score(doc=2787,freq=2.0), product of:
                0.09609793 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.026919862 = queryNorm
                0.15776339 = fieldWeight in 2787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2787)
          0.33333334 = coord(1/3)
        0.010369102 = weight(_text_:internet in 2787) [ClassicSimilarity], result of:
          0.010369102 = score(doc=2787,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1304718 = fieldWeight in 2787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.020563837 = weight(_text_:der in 2787) [ClassicSimilarity], result of:
          0.020563837 = score(doc=2787,freq=24.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34197432 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.1875 = coord(3/16)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
    Theme
    Internet
  16. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.01
    0.0067200204 = product of:
      0.03584011 = sum of:
        0.010369102 = weight(_text_:internet in 5900) [ClassicSimilarity], result of:
          0.010369102 = score(doc=5900,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1304718 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.020563837 = weight(_text_:der in 5900) [ClassicSimilarity], result of:
          0.020563837 = score(doc=5900,freq=24.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34197432 = fieldWeight in 5900, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.0049071694 = product of:
          0.014721508 = sum of:
            0.014721508 = weight(_text_:29 in 5900) [ClassicSimilarity], result of:
              0.014721508 = score(doc=5900,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.15546128 = fieldWeight in 5900, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5900)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  17. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.01
    0.0067200204 = product of:
      0.03584011 = sum of:
        0.010369102 = weight(_text_:internet in 5901) [ClassicSimilarity], result of:
          0.010369102 = score(doc=5901,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.1304718 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.020563837 = weight(_text_:der in 5901) [ClassicSimilarity], result of:
          0.020563837 = score(doc=5901,freq=24.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.34197432 = fieldWeight in 5901, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.0049071694 = product of:
          0.014721508 = sum of:
            0.014721508 = weight(_text_:29 in 5901) [ClassicSimilarity], result of:
              0.014721508 = score(doc=5901,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.15546128 = fieldWeight in 5901, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5901)
          0.33333334 = coord(1/3)
      0.1875 = coord(3/16)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
    Theme
    Internet
  18. Wolfekuhler, M.R.; Punch, W.F.: Finding salient features for personal Web pages categories (1997) 0.01
    0.0065427013 = product of:
      0.05234161 = sum of:
        0.018145926 = weight(_text_:internet in 2673) [ClassicSimilarity], result of:
          0.018145926 = score(doc=2673,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.22832564 = fieldWeight in 2673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2673)
        0.034195684 = product of:
          0.051293526 = sum of:
            0.025762638 = weight(_text_:29 in 2673) [ClassicSimilarity], result of:
              0.025762638 = score(doc=2673,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27205724 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
            0.025530888 = weight(_text_:22 in 2673) [ClassicSimilarity], result of:
              0.025530888 = score(doc=2673,freq=2.0), product of:
                0.09426877 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026919862 = queryNorm
                0.2708308 = fieldWeight in 2673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2673)
          0.6666667 = coord(2/3)
      0.125 = coord(2/16)
    
    Date
    1. 8.1996 22:08:06
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1147-1156
    Theme
    Internet
  19. Hoffmann, L.: Probleme bei der Anpassung des Metadatenformats von IBIS ab Dublic Core und die Auswirkungen auf die Verbunddatenbank (1997) 0.01
    0.006453444 = product of:
      0.05162755 = sum of:
        0.025922755 = weight(_text_:internet in 1882) [ClassicSimilarity], result of:
          0.025922755 = score(doc=1882,freq=2.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.3261795 = fieldWeight in 1882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.078125 = fieldNorm(doc=1882)
        0.025704795 = weight(_text_:der in 1882) [ClassicSimilarity], result of:
          0.025704795 = score(doc=1882,freq=6.0), product of:
            0.060132693 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.026919862 = queryNorm
            0.42746788 = fieldWeight in 1882, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1882)
      0.125 = coord(2/16)
    
    Source
    Weiter auf dem Weg zur Virtuellen Bibliothek! Praxis, Projekte, Perspektiven. 2. INETBIB-Tagung der Universitätsbibliothek Dortmund und der Fachhochschule Potsdam, Fachbereich Archiv-Bibliothek - Dokumentation vom 10.-11.3.1997. 2., erw. Aufl. Hrsg. von B. Tröger u. H.-C. Hobohm
    Theme
    Internet
  20. Lam, V.-T.: Cataloging Internet resources : Why, what, how (2000) 0.01
    0.0061453846 = product of:
      0.049163077 = sum of:
        0.04057553 = weight(_text_:internet in 967) [ClassicSimilarity], result of:
          0.04057553 = score(doc=967,freq=10.0), product of:
            0.07947389 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.026919862 = queryNorm
            0.5105517 = fieldWeight in 967, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0546875 = fieldNorm(doc=967)
        0.008587547 = product of:
          0.025762638 = sum of:
            0.025762638 = weight(_text_:29 in 967) [ClassicSimilarity], result of:
              0.025762638 = score(doc=967,freq=2.0), product of:
                0.09469566 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026919862 = queryNorm
                0.27205724 = fieldWeight in 967, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=967)
          0.33333334 = coord(1/3)
      0.125 = coord(2/16)
    
    Abstract
    Internet resources have brought great excitement but also grave concerns to the library world, especially to the cataloging community. In spite of the various problematic aspects presented by Internet resources (poorly organized, lack of stability, variable quality), catalogers have decided that they are worth cataloging, in particular those meeting library selection criteria. This paper tries to trace the decade-long history of the library comrnunity's efforts in providing an effective way to catalog Internet resources. Basically, its olbjective is to answer the following questions: Why catalog? What to catalog? and, How to catalog. Some issues of cataloging electronic journals and developments of the Dublin Core Metadata system are also discussed.
    Source
    Cataloging and classification quarterly. 29(2000) no.3, S.49-61
    Theme
    Internet

Authors

Years

Languages

Types

  • a 320
  • el 38
  • s 11
  • m 10
  • b 2
  • x 2
  • n 1
  • r 1
  • More… Less…