Search (203 results, page 2 of 11)

  • × theme_ss:"Metadaten"
  1. Bourne, R.: ¬The European BIBLINK Project (1999) 0.01
    0.0072106947 = product of:
      0.054080207 = sum of:
        0.025704298 = weight(_text_:und in 2804) [ClassicSimilarity], result of:
          0.025704298 = score(doc=2804,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.41556883 = fieldWeight in 2804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2804)
        0.028375909 = weight(_text_:des in 2804) [ClassicSimilarity], result of:
          0.028375909 = score(doc=2804,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.36716178 = fieldWeight in 2804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2804)
      0.13333334 = coord(2/15)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.74
    Source
    Bibliotheken und Verlage als Träger der Informationsgesellschaft: Vorträge des 4. europäischen Bielefeld-Kolloquiums, 10.-12.2.1998. Hrsg.: K.W. Neubauer u. W.R. Müller
  2. Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019) 0.01
    0.0072106947 = product of:
      0.054080207 = sum of:
        0.025704298 = weight(_text_:und in 5350) [ClassicSimilarity], result of:
          0.025704298 = score(doc=5350,freq=16.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.41556883 = fieldWeight in 5350, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.028375909 = weight(_text_:des in 5350) [ClassicSimilarity], result of:
          0.028375909 = score(doc=5350,freq=8.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.36716178 = fieldWeight in 5350, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
      0.13333334 = coord(2/15)
    
    Abstract
    In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.
  3. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.01
    0.007119637 = product of:
      0.053397276 = sum of:
        0.029988347 = weight(_text_:und in 3910) [ClassicSimilarity], result of:
          0.029988347 = score(doc=3910,freq=16.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.4848303 = fieldWeight in 3910, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
        0.02340893 = weight(_text_:des in 3910) [ClassicSimilarity], result of:
          0.02340893 = score(doc=3910,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.302893 = fieldWeight in 3910, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
      0.13333334 = coord(2/15)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  4. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.01
    0.0070229373 = product of:
      0.05267203 = sum of:
        0.026234338 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.026234338 = score(doc=115,freq=24.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.42413816 = fieldWeight in 115, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.026437692 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.026437692 = score(doc=115,freq=10.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.3420828 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.13333334 = coord(2/15)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  5. Weiss, B.: ¬Die Metadaten-Initiative deutscher Bibliotheken : Das META-LIB-Projekt (2000) 0.01
    0.006983713 = product of:
      0.052377842 = sum of:
        0.02370787 = weight(_text_:und in 4457) [ClassicSimilarity], result of:
          0.02370787 = score(doc=4457,freq=10.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.38329202 = fieldWeight in 4457, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
        0.02866997 = weight(_text_:des in 4457) [ClassicSimilarity], result of:
          0.02866997 = score(doc=4457,freq=6.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.3709667 = fieldWeight in 4457, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4457)
      0.13333334 = coord(2/15)
    
    Abstract
    META-LIB ist ein gemeinsames Projekt der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, Der Deutschen Bibliothek, der Bayerischen Staatsbibliothek und des Deutschen Bibliotheksinstituts. Es wird im Rahmen des Förderbereichs 'Verteilte digitale Forschungsbibliothek', Einzelprogramm 'Modernisierung und Rationalisierung in wissenschaftlichen Bibliotheken' von der DFG gefördert. META-LIB hat zum Ziel, Richtlinien für den Einsatz von Metadaten, insbesondere des Dublin-Core-Sets, zur Erschließung digitaler und digitalisierter Ressourcen in wissenschaftlichen Bibliotheken zu entwickeln. Vorgestellt wird das Teilprojekt Der Deutschen Bibliothek, welches zur Aufgabe die 'Entwicklung von Konventionen für die (national)bibliographische Erschließung digitaler Publikationen' hat
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.56-62
  6. Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016) 0.01
    0.0069117052 = product of:
      0.051837787 = sum of:
        0.027263524 = weight(_text_:und in 3139) [ClassicSimilarity], result of:
          0.027263524 = score(doc=3139,freq=18.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.4407773 = fieldWeight in 3139, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3139)
        0.024574261 = weight(_text_:des in 3139) [ClassicSimilarity], result of:
          0.024574261 = score(doc=3139,freq=6.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.31797147 = fieldWeight in 3139, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3139)
      0.13333334 = coord(2/15)
    
    Abstract
    Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 69(2016) H.1, S.41-57
  7. Broughton, V.: Automatic metadata generation : Digital resource description without human intervention (2007) 0.01
    0.006808321 = product of:
      0.051062405 = sum of:
        0.028375909 = weight(_text_:des in 6048) [ClassicSimilarity], result of:
          0.028375909 = score(doc=6048,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.36716178 = fieldWeight in 6048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=6048)
        0.022686495 = product of:
          0.04537299 = sum of:
            0.04537299 = weight(_text_:22 in 6048) [ClassicSimilarity], result of:
              0.04537299 = score(doc=6048,freq=2.0), product of:
                0.09772735 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027907511 = queryNorm
                0.46428138 = fieldWeight in 6048, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6048)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Content
    Beitrag anläßlich des Seminars "Tools for knowledge organization - ISKO UK Seminar", 4. September 2007.
    Date
    22. 9.2007 15:41:14
  8. Schneider, S.: Recherche und Literaturbestellung leicht gemacht! : MedPilot - Virtuelle Fachbibliothek Medizin (2003) 0.01
    0.006583947 = product of:
      0.049379602 = sum of:
        0.02597067 = weight(_text_:und in 1914) [ClassicSimilarity], result of:
          0.02597067 = score(doc=1914,freq=12.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.41987535 = fieldWeight in 1914, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
        0.02340893 = weight(_text_:des in 1914) [ClassicSimilarity], result of:
          0.02340893 = score(doc=1914,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.302893 = fieldWeight in 1914, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1914)
      0.13333334 = coord(2/15)
    
    Abstract
    MedPilot (www.medpilot.de) ist ein Gemeinschaftsprojekt der Deutschen Zentralbibliothek für Medizin (ZBMed) und des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI). Im Rahmen der Virtuellen Fachbibliotheken wird MedPilot von der Deutschen Forschungsgemeinschaft (DFG) gefördert. MedPilot basiert auf der Software SISIS-Elektra, welche im Rahmen des Projektes weiterentwickelt wurde. Projektstart im August 2001, Testbetrieb seit Juli 2002, offizielle Eröffnung im Februar 2003
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  9. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.01
    0.0063927704 = product of:
      0.047945775 = sum of:
        0.031225108 = weight(_text_:und in 1764) [ClassicSimilarity], result of:
          0.031225108 = score(doc=1764,freq=34.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.50482535 = fieldWeight in 1764, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
        0.016720666 = weight(_text_:des in 1764) [ClassicSimilarity], result of:
          0.016720666 = score(doc=1764,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.21635216 = fieldWeight in 1764, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1764)
      0.13333334 = coord(2/15)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  10. Hoffmann, L.: Probleme bei der Anpassung des Metadatenformats von IBIS ab Dublic Core und die Auswirkungen auf die Verbunddatenbank (1997) 0.01
    0.006008912 = product of:
      0.045066837 = sum of:
        0.021420246 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.021420246 = score(doc=1882,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.34630734 = fieldWeight in 1882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1882)
        0.023646591 = weight(_text_:des in 1882) [ClassicSimilarity], result of:
          0.023646591 = score(doc=1882,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 1882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1882)
      0.13333334 = coord(2/15)
    
    Source
    Weiter auf dem Weg zur Virtuellen Bibliothek! Praxis, Projekte, Perspektiven. 2. INETBIB-Tagung der Universitätsbibliothek Dortmund und der Fachhochschule Potsdam, Fachbereich Archiv-Bibliothek - Dokumentation vom 10.-11.3.1997. 2., erw. Aufl. Hrsg. von B. Tröger u. H.-C. Hobohm
  11. Ziegler, C.: Weltendämmerung : XML und Datenbanken: Einblick in Tamino (2001) 0.01
    0.006008912 = product of:
      0.045066837 = sum of:
        0.021420246 = weight(_text_:und in 5802) [ClassicSimilarity], result of:
          0.021420246 = score(doc=5802,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.34630734 = fieldWeight in 5802, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
        0.023646591 = weight(_text_:des in 5802) [ClassicSimilarity], result of:
          0.023646591 = score(doc=5802,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 5802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
      0.13333334 = coord(2/15)
    
    Abstract
    XML hat sich als Esperanto des Datenaustauschs etabliert und schickt sich an, die eher relationale geprägte Welt der Datenbanken zu verändern. Anders als relationale DBMS legt der Informationsserver Tamino Daten nativ im XML-Format ab
  12. Al-Eryani, S.; Bucher, G.; Rühle, S: ¬Ein Metadatenmodell für gemischte Sammlungen (2018) 0.01
    0.006008912 = product of:
      0.045066837 = sum of:
        0.021420246 = weight(_text_:und in 5110) [ClassicSimilarity], result of:
          0.021420246 = score(doc=5110,freq=4.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.34630734 = fieldWeight in 5110, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5110)
        0.023646591 = weight(_text_:des in 5110) [ClassicSimilarity], result of:
          0.023646591 = score(doc=5110,freq=2.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 5110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=5110)
      0.13333334 = coord(2/15)
    
    Abstract
    Im Rahmen des DFG-geförderten Projekts "Entwicklung von interoperablen Standards für die Kontextualisierung heterogener Objekte am Beispiel der Provenienz Asch" wurde ein Semantic Web und Linked Open Data fähiges Metadatenmodell entwickelt, das es ermöglicht, institutionsübergreifend Kulturerbe und dessen Provenienz zu kontextualisieren.
  13. Qualität in der Inhaltserschließung (2021) 0.01
    0.0059810323 = product of:
      0.04485774 = sum of:
        0.031481206 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.031481206 = score(doc=753,freq=54.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.013376532 = weight(_text_:des in 753) [ClassicSimilarity], result of:
          0.013376532 = score(doc=753,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.17308173 = fieldWeight in 753, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.13333334 = coord(2/15)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Rusch-Feja, D.: Dublin Core Educational Metadata : Entwicklungen bei Metadaten für den Bildungsbereich (2000) 0.01
    0.0059485193 = product of:
      0.044613894 = sum of:
        0.021204963 = weight(_text_:und in 4451) [ClassicSimilarity], result of:
          0.021204963 = score(doc=4451,freq=8.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.34282678 = fieldWeight in 4451, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
        0.02340893 = weight(_text_:des in 4451) [ClassicSimilarity], result of:
          0.02340893 = score(doc=4451,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.302893 = fieldWeight in 4451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4451)
      0.13333334 = coord(2/15)
    
    Abstract
    August 1999 wurde eine Arbeitsgruppe für bildungsbezogene Metadaten im Rahmen der Dublin Core Metadaten-Initiative unter der Leitung von Prof. Dr. Stuart Sutton (Gateway for Educational Materials, GEM, und School of Libraray and Information Science der University of Washington, USA und Dr. Jon Mason, Direktor des Education Network Australia, EdNA, Australien) konstituiert. Innerhalb einer Woche nach der Presseankündigung hatten sich weltweit über 70 Teilnehmer für die Arbeitsgruppe gemeldet. Ziele dieser Arbeitsgruppe sind: ... die Eingrenzungen und Erweiterungen zum Dublin Core Metadatensatz zu entwickeln, der Bildungsinformationen zum Zwecke einer besseren Quellensuche beschreibt. Es ist zu erwarten, daß die daraus resultierenden Metadaten sowohl bildungsbezogene Qualifier innerhalb des Rahmens der bestehenden Dublin Core Elemente beinhalten als auch potentiell einige, die für den Bibldungsbereich spezifisch sind
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.20-25
  15. Hauff-Hartig, S.: "Im Dickicht der Einzelheiten" : Herausforderungen und Lösungen für die Erschließung (2022) 0.01
    0.0059485193 = product of:
      0.044613894 = sum of:
        0.021204963 = weight(_text_:und in 498) [ClassicSimilarity], result of:
          0.021204963 = score(doc=498,freq=8.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.34282678 = fieldWeight in 498, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=498)
        0.02340893 = weight(_text_:des in 498) [ClassicSimilarity], result of:
          0.02340893 = score(doc=498,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.302893 = fieldWeight in 498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=498)
      0.13333334 = coord(2/15)
    
    Abstract
    "Veränderungen sind nur das Salz des Vergnügens"- dieses Zitat aus Friedrich Schillers "Kabale und Liebe" bildete die Klammer der 38. Tagung der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB), die im 75. Jahr ihres Bestehens stattfand. Im Folgenden wird ein Überblick über die Vorträge und Diskussionen des zweiten Panels gegeben, das ebenso wie die anderen Panels nach literarischen Werken benannt wurde: Wilhelm Genazinos Drama "Im Dickicht der Einzelheiten" steht als Überschrift für die künftige Erschließung in Spezialbibliotheken zwischen Vernetzung und Automatisierung. Moderiert wurde das Panel von Karin Schmidgall vom Deutschen Literaturarchiv Marbach.
  16. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.01
    0.005887508 = product of:
      0.044156305 = sum of:
        0.020987472 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.020987472 = score(doc=2787,freq=24.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.023168832 = weight(_text_:des in 2787) [ClassicSimilarity], result of:
          0.023168832 = score(doc=2787,freq=12.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.29978633 = fieldWeight in 2787, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.13333334 = coord(2/15)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  17. Baker, T.; Rühle, S.: Übersetzung des Dublin Core Metadata Initiative Abstract Model (DCAM) (2009) 0.01
    0.0058244527 = product of:
      0.043683395 = sum of:
        0.020036805 = weight(_text_:und in 3230) [ClassicSimilarity], result of:
          0.020036805 = score(doc=3230,freq=14.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.32394084 = fieldWeight in 3230, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3230)
        0.023646591 = weight(_text_:des in 3230) [ClassicSimilarity], result of:
          0.023646591 = score(doc=3230,freq=8.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.30596817 = fieldWeight in 3230, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3230)
      0.13333334 = coord(2/15)
    
    Abstract
    Dieses Dokument beschreibt das Abstraktmodell für Dublin-Core-Metadaten. Ziel des Dokuments ist es vor allem, die Elemente und Strukturen, die in Dublin-Core-Metadaten verwendet werden, zu benennen. Das Dokument definiert die verwendeten Elemente und beschreibt, wie sie miteinander kombiniert werden, um Informationsstrukturen zu bilden. Es stellt ein von jeglicher besonderen Codierungssyntax unabhängiges Informationsmodell dar. Ein solches Informationsmodell macht es uns möglich, die Beschreibungen, die wir codieren wollen, besser zu verstehen und erleichtert die Entwicklung besserer Mappings und syntaxübergreifender Datenkonvertierungen. Dieses Dokument richtet sich in erster Linie an Entwickler von Softwareanwendungen, die Dublin-Core-Metadaten unterstützen, an Personen, die neue syntaktische Codierungsrichtlinien für Dublin-Core-Metadaten entwickeln und an Personen, die Metadatenprofile entwickeln, die auf DCMI- oder anderen kompatibelen Vokabularen basieren. Das DCMI-Abstraktmodell basiert auf der Arbeit des World Wide Web Consortium (W3C) am Resource Description Framework (RDF). Die Verwendung von Konzepten aus RDF wird unten im Abschnitt 5 zusammengefasst. Das DCMI-Abstraktmodell wird hier mit UML-Klassen-Diagrammen dargestellt. Für Leser, die solche UML-Klassen-Diagramme nicht kennen, eine kurze Anleitung: Linien, die in einem Maßpfeil enden, werden als 'ist' oder 'ist eine' gelesen (z.B. "value ist eine resource"). Linien, die mit einer Raute beginnen, werden als 'hat' oder 'hat eine' gelesen (z.B. "statement hat einen property URI"). Andere Beziehungen werden entsprechend gekennzeichnet. Die kursiv geschriebenen Wörter und Phrasen in diesem Dokument werden im Abschnitt 7 ("Terminologie") definiert. Wir danken Dan Brickley, Rachel Heery, Alistair Miles, Sarah Pulis, den Mitgliedern des DCMI Usage Board und den Mitgliedern der DCMI Architecture Community für ihr Feedback zu den vorangegangenen Versionen dieses Dokuments.
  18. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.01
    0.005727334 = product of:
      0.042955004 = sum of:
        0.026234338 = weight(_text_:und in 133) [ClassicSimilarity], result of:
          0.026234338 = score(doc=133,freq=24.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.42413816 = fieldWeight in 133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.016720666 = weight(_text_:des in 133) [ClassicSimilarity], result of:
          0.016720666 = score(doc=133,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.21635216 = fieldWeight in 133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.13333334 = coord(2/15)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  19. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.00561835 = product of:
      0.042137623 = sum of:
        0.020987472 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.020987472 = score(doc=4439,freq=24.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.021150153 = weight(_text_:des in 4439) [ClassicSimilarity], result of:
          0.021150153 = score(doc=4439,freq=10.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.27366623 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.13333334 = coord(2/15)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  20. Schwänzl, R.: Modulare MetaDaten (2000) 0.01
    0.0055697295 = product of:
      0.04177297 = sum of:
        0.018364036 = weight(_text_:und in 4461) [ClassicSimilarity], result of:
          0.018364036 = score(doc=4461,freq=6.0), product of:
            0.061853286 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027907511 = queryNorm
            0.2968967 = fieldWeight in 4461, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4461)
        0.02340893 = weight(_text_:des in 4461) [ClassicSimilarity], result of:
          0.02340893 = score(doc=4461,freq=4.0), product of:
            0.077284485 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.027907511 = queryNorm
            0.302893 = fieldWeight in 4461, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4461)
      0.13333334 = coord(2/15)
    
    Abstract
    Die Syntax des HTML Meta-Tags erlaubt die Darstellung von Grundinformationen über Ressourcen. Jedoch schon bei einfachen Gruppierungsanforderungen werden Absprachen erforderlich, die keinen Rückhalt in der HTML Spezifikation haben und deshalb nicht mehr maschinenverstehbar sind. Die bereits auf der zweiten Dublin Core Tagung beschriebene Notwendigkeit der Modularität von Metadaten (Warwick Framework) (Verfeinerung und Erweiterung von Dublin Core, Zielsetzungen außerhalb eines eng verstandenen Resource Discovery, Bezüge zwischen Vokabularen) kann in zufriedenstellender Form mit dem Meta-Tag nicht implementiert werden. Fortschritte auch für die semantische Interoperabilität lassen sich durch den Einsatz des vom W3 Konsortium definierten Resource Description Framework (RDF) Schema erzielen
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.87-94

Authors

Years

Languages

  • e 102
  • d 96
  • f 1
  • i 1
  • ru 1
  • sp 1
  • More… Less…

Types

  • a 178
  • el 22
  • m 6
  • s 6
  • x 4
  • b 2
  • n 1
  • r 1
  • More… Less…