Search (204 results, page 1 of 11)

  • × theme_ss:"Metadaten"
  1. Mainberger, C.: Aktuelles aus der Digital Library (2003) 0.04
    0.037148464 = product of:
      0.13373446 = sum of:
        0.03662275 = weight(_text_:medien in 1547) [ClassicSimilarity], result of:
          0.03662275 = score(doc=1547,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.29416442 = fieldWeight in 1547, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
        0.026315324 = weight(_text_:und in 1547) [ClassicSimilarity], result of:
          0.026315324 = score(doc=1547,freq=42.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.44886562 = fieldWeight in 1547, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
        0.026315324 = weight(_text_:und in 1547) [ClassicSimilarity], result of:
          0.026315324 = score(doc=1547,freq=42.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.44886562 = fieldWeight in 1547, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
        0.028952952 = weight(_text_:technik in 1547) [ClassicSimilarity], result of:
          0.028952952 = score(doc=1547,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.21993968 = fieldWeight in 1547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
        0.015528116 = weight(_text_:des in 1547) [ClassicSimilarity], result of:
          0.015528116 = score(doc=1547,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.21198097 = fieldWeight in 1547, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1547)
      0.2777778 = coord(5/18)
    
    Abstract
    Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
  2. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.04
    0.03587648 = product of:
      0.12915532 = sum of:
        0.025841136 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
          0.025841136 = score(doc=2406,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4407773 = fieldWeight in 2406, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.025841136 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
          0.025841136 = score(doc=2406,freq=18.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.4407773 = fieldWeight in 2406, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.043429427 = weight(_text_:technik in 2406) [ClassicSimilarity], result of:
          0.043429427 = score(doc=2406,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 2406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.023292176 = weight(_text_:des in 2406) [ClassicSimilarity], result of:
          0.023292176 = score(doc=2406,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.31797147 = fieldWeight in 2406, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
              0.021502897 = score(doc=2406,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 2406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.2777778 = coord(5/18)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  3. Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 1) (2016) 0.03
    0.028370466 = product of:
      0.1276671 = sum of:
        0.045318343 = weight(_text_:medien in 5636) [ClassicSimilarity], result of:
          0.045318343 = score(doc=5636,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.3640099 = fieldWeight in 5636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5636)
        0.03332986 = weight(_text_:und in 5636) [ClassicSimilarity], result of:
          0.03332986 = score(doc=5636,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.56851393 = fieldWeight in 5636, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5636)
        0.03332986 = weight(_text_:und in 5636) [ClassicSimilarity], result of:
          0.03332986 = score(doc=5636,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.56851393 = fieldWeight in 5636, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5636)
        0.015689032 = weight(_text_:des in 5636) [ClassicSimilarity], result of:
          0.015689032 = score(doc=5636,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2141777 = fieldWeight in 5636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5636)
      0.22222222 = coord(4/18)
    
    Abstract
    Der folgende Artikel beschäftigt sich mit den Anforderungen und Aufgaben eines Systems zur vernetzten Datenverwaltung, welches zeitbezogene Verknüpfungen zwischen audiovisuellen Inhalten und Metadaten ermöglicht. Anhand der zusammenhängenden Relationen kann ein audiovisuelles Medium nicht nur als Ganzes effektiv beschrieben und erfasst werden, sondern auch dessen Fragmente und Kontexte. Auf Basis dieser Datenverarbeitung lassen sich vielfältige Schnittstellen und Anwendungen zur kontextbasierten Erschließung, Bearbeitung und Auslieferung von Dokumenten und Medien abbilden, welche insbesondere für Mediatheken und Systeme des Media-Asset-Managements im medialen Umfeld einen großen zusätzlichen Nutzen aufweisen, aber auch Aufgaben innerhalb wissenschaftlicher Bibliotheken und Archivsystemen erfüllen können.
  4. Diekmann, B.; Korb, N.; Schroeder, K.: Langzeitverfügbarkeit digitaler Dissertationen : das Projekt CARMEN-AP4 "Persistent Identifier" und die Koordinierungsstelle "DissOnline" (2002) 0.03
    0.027353222 = product of:
      0.1230895 = sum of:
        0.05179239 = weight(_text_:medien in 612) [ClassicSimilarity], result of:
          0.05179239 = score(doc=612,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.4160113 = fieldWeight in 612, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=612)
        0.0229699 = weight(_text_:und in 612) [ClassicSimilarity], result of:
          0.0229699 = score(doc=612,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=612)
        0.0229699 = weight(_text_:und in 612) [ClassicSimilarity], result of:
          0.0229699 = score(doc=612,freq=8.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.39180204 = fieldWeight in 612, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=612)
        0.025357308 = weight(_text_:des in 612) [ClassicSimilarity], result of:
          0.025357308 = score(doc=612,freq=4.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.34616345 = fieldWeight in 612, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=612)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Langzeitverfügbarkeit digitaler Medien stellt insbesondere Nationalbibliotheken vor neue Herausforderungen. Ausgehend von dieser Problematik werden Lösungsmöglichkeiten zur Gewährleistung der Langzeitverfügbarkeit für Online-Dissertationen im Rahmen des Projektes CARMEN-AP4 und des Wirkungskreises der Koordinierungsstelle "DissOnline" diskutiert sowie deren Ergebnisse und Perspektiven vorgestellt.
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.3, S.161-166
  5. Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019) 0.03
    0.026455874 = product of:
      0.11905143 = sum of:
        0.024363257 = weight(_text_:und in 5350) [ClassicSimilarity], result of:
          0.024363257 = score(doc=5350,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 5350, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.024363257 = weight(_text_:und in 5350) [ClassicSimilarity], result of:
          0.024363257 = score(doc=5350,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 5350, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.043429427 = weight(_text_:technik in 5350) [ClassicSimilarity], result of:
          0.043429427 = score(doc=5350,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3299095 = fieldWeight in 5350, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
        0.026895486 = weight(_text_:des in 5350) [ClassicSimilarity], result of:
          0.026895486 = score(doc=5350,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.36716178 = fieldWeight in 5350, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
      0.22222222 = coord(4/18)
    
    Abstract
    In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.
    Source
    ABI-Technik. 39(2019) H.2, S.104-111
  6. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.03
    0.026116831 = product of:
      0.11752574 = sum of:
        0.018800575 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.018800575 = score(doc=4440,freq=28.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.062383723 = weight(_text_:film in 4440) [ClassicSimilarity], result of:
          0.062383723 = score(doc=4440,freq=4.0), product of:
            0.17370686 = queryWeight, product of:
              6.5669885 = idf(docFreq=168, maxDocs=44218)
              0.026451524 = queryNorm
            0.35913217 = fieldWeight in 4440, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5669885 = idf(docFreq=168, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.018800575 = weight(_text_:und in 4440) [ClassicSimilarity], result of:
          0.018800575 = score(doc=4440,freq=28.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3206851 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.017540872 = weight(_text_:des in 4440) [ClassicSimilarity], result of:
          0.017540872 = score(doc=4440,freq=10.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.23945795 = fieldWeight in 4440, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.22222222 = coord(4/18)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  7. Söhler, M.: Schluss mit Schema F (2011) 0.02
    0.024498979 = product of:
      0.1102454 = sum of:
        0.019892516 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.019892516 = score(doc=4439,freq=24.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.05041366 = weight(_text_:film in 4439) [ClassicSimilarity], result of:
          0.05041366 = score(doc=4439,freq=2.0), product of:
            0.17370686 = queryWeight, product of:
              6.5669885 = idf(docFreq=168, maxDocs=44218)
              0.026451524 = queryNorm
            0.29022262 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5669885 = idf(docFreq=168, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.019892516 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.019892516 = score(doc=4439,freq=24.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.020046711 = weight(_text_:des in 4439) [ClassicSimilarity], result of:
          0.020046711 = score(doc=4439,freq=10.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.27366623 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.22222222 = coord(4/18)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  8. Klarmann, S.: easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien : Anwendungsfall: Forschungsdaten (2020) 0.02
    0.022027051 = product of:
      0.1321623 = sum of:
        0.09155688 = weight(_text_:medien in 58) [ClassicSimilarity], result of:
          0.09155688 = score(doc=58,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.73541105 = fieldWeight in 58, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=58)
        0.020302713 = weight(_text_:und in 58) [ClassicSimilarity], result of:
          0.020302713 = score(doc=58,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 58, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=58)
        0.020302713 = weight(_text_:und in 58) [ClassicSimilarity], result of:
          0.020302713 = score(doc=58,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.34630734 = fieldWeight in 58, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=58)
      0.16666667 = coord(3/18)
    
    Abstract
    Präsentationsfolien zum sehr schönen Vortrag von Herrn Sebastian Klarmann (Software easydb) in der vergangenen Woche am Donnerstag zum Thema "easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien. Anwendungsfall: Forschungsdaten" (vgl. Mail von A. Strauch an Inetbib vom 15.12.2020.
  9. Büttner, G.: Integration audiovisueller Aufzeichnungen in das Records Management einer Organisation : ein konzeptionelles Metadatenmodell (2017) 0.02
    0.020575825 = product of:
      0.09259121 = sum of:
        0.045318343 = weight(_text_:medien in 4202) [ClassicSimilarity], result of:
          0.045318343 = score(doc=4202,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.3640099 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
        0.010049331 = weight(_text_:und in 4202) [ClassicSimilarity], result of:
          0.010049331 = score(doc=4202,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.17141339 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
        0.010049331 = weight(_text_:und in 4202) [ClassicSimilarity], result of:
          0.010049331 = score(doc=4202,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.17141339 = fieldWeight in 4202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
        0.027174205 = weight(_text_:des in 4202) [ClassicSimilarity], result of:
          0.027174205 = score(doc=4202,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.3709667 = fieldWeight in 4202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
      0.22222222 = coord(4/18)
    
    Abstract
    Dieser Artikel stellt ein konzeptionelles Metadatenmodell vor, das auf Records verschiedener Medientypen anwendbar ist. Organisationen, die im Zuge ihrer Tätigkeit regelmäßig sowohl textbasierte als auch audiovisuelle Records erstellen, haben beide Medien im Sinne des Records Management zu verwalten. Dazu sind Metadaten, einschließlich der des zentralen Ordnungssystems für Records, ein Hauptwerkzeug. Inspiriert durch medienübergreifende, auf gemeinsamen Zugriff ausgerichtete Metadatenmodelle, wird ein neues Modell vorgeschlagen. Es kombiniert die hierarchische Abstraktion der existierenden Modelle mit den Prinzipien des Records Management. Das Modell kann Organisationen dabei helfen, Entscheidungen über Metadaten für ihre Records zu treffen.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.1, S.25-37
  10. Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 2) (2016) 0.02
    0.020572608 = product of:
      0.12343565 = sum of:
        0.07849367 = weight(_text_:medien in 5861) [ClassicSimilarity], result of:
          0.07849367 = score(doc=5861,freq=6.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.6304836 = fieldWeight in 5861, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5861)
        0.022470988 = weight(_text_:und in 5861) [ClassicSimilarity], result of:
          0.022470988 = score(doc=5861,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.38329202 = fieldWeight in 5861, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5861)
        0.022470988 = weight(_text_:und in 5861) [ClassicSimilarity], result of:
          0.022470988 = score(doc=5861,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.38329202 = fieldWeight in 5861, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5861)
      0.16666667 = coord(3/18)
    
    Abstract
    Metadaten beschreiben audiovisuelle Medien (A/V-Medien) bisher meist nur als Ganzes und nicht im Detail. Die zeitliche Dimension, der Ablauf von Bildund Tonfolgen, bietet eine entscheidende Verknüpfungskette für Metadaten zur tiefen Erschließung von A/V-Medien. Zeitbezogene Zusatzinformationen eröffnen vielseitige Möglichkeiten zur Interaktion, Suche und Selektion zusammenhängender Inhalte, welche zudem auf unterschiedlichen Medienformen basieren können. Im Folgenden werden webbasierte Werkzeuge vorgestellt, welche sowohl für die Verarbeitung von zeitbezogenen Metadaten als auch für die Erstellung von Medienfragmenten konzipiert sind. Die daraus resultierenden hypermedialen Erzeugnisse können über bereitgestellte Widgets aktiv in bestehende Plattformen eingebunden werden. Somit können auch bereits vorhandene Datensätze und Dokumente engmaschig mit einem Medium vernetzt werden.
  11. Rusch-Feja, D.: ¬Die Open Archives Initiative (OAI) : Neue Zugangsformen zu wissenschaftlichen Arbeiten? (2001) 0.02
    0.018494759 = product of:
      0.08322641 = sum of:
        0.02278974 = weight(_text_:und in 1133) [ClassicSimilarity], result of:
          0.02278974 = score(doc=1133,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.38872904 = fieldWeight in 1133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.02278974 = weight(_text_:und in 1133) [ClassicSimilarity], result of:
          0.02278974 = score(doc=1133,freq=14.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.38872904 = fieldWeight in 1133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.026895486 = weight(_text_:des in 1133) [ClassicSimilarity], result of:
          0.026895486 = score(doc=1133,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.36716178 = fieldWeight in 1133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1133)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 1133) [ClassicSimilarity], result of:
              0.021502897 = score(doc=1133,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 1133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1133)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    Nach einer Erläuterung der Ereignisse und Gründe, die zur Entwicklung der Open Archives Initiative (OAI) geführt haben, wird die Entstehungsgeschichte der OAI sowie ihre Organisationsstruktur dargestellt. Der Input und Diskussionen von Interessierten und Erstanwendern bei mehreren öffentlichen Workshops trugen zur Optimierung der Alpha-Version des Protokolls bei, mit dem Ergebnis, dass die erste offizielle Version im Januar 2001 vorgestellt wurde. Darauf hin folgten zwei Workshops in den USA und Europa zur Darlegung des Protokolls und Vorstellung exemplarischer Implementierung des Protokolls. Das OAI Metadata Harvesting Protokoll wird in seiner Zielsetzung und Möglichkeiten detailliert dargestellt. Auch die vom Protokoll erforderlichen Metadaten werden erläutert. Die Basisbefehle zur Abfrage in verschiedenen OAI-kompatiblen Repositories, auch mit Unterscheidung zwischen besonderen Sammlungen innerhalb der Repositories werden erklärt. Zum Schluß werden die Aussichten für die OAI im Rahmen der Experimentierphase der 1. Version des Protokolls sowie im Rahmen der gegenwärtigen Entwicklungen im wissenschaftlichen Publikationswesen diskutiert.
    Date
    22. 4.2002 12:23:54
    Source
    Bibliothek: Forschung und Praxis. 25(2001) H.3, S.291-300
  12. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001) 0.02
    0.018203953 = product of:
      0.081917785 = sum of:
        0.025896195 = weight(_text_:medien in 5900) [ClassicSimilarity], result of:
          0.025896195 = score(doc=5900,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.20800565 = fieldWeight in 5900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.019045634 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.019045634 = score(doc=5900,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.019045634 = weight(_text_:und in 5900) [ClassicSimilarity], result of:
          0.019045634 = score(doc=5900,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3248651 = fieldWeight in 5900, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
        0.017930323 = weight(_text_:des in 5900) [ClassicSimilarity], result of:
          0.017930323 = score(doc=5900,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 5900, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5900)
      0.22222222 = coord(4/18)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  13. Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001) 0.02
    0.018203953 = product of:
      0.081917785 = sum of:
        0.025896195 = weight(_text_:medien in 5901) [ClassicSimilarity], result of:
          0.025896195 = score(doc=5901,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.20800565 = fieldWeight in 5901, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.019045634 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.019045634 = score(doc=5901,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.019045634 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
          0.019045634 = score(doc=5901,freq=22.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.3248651 = fieldWeight in 5901, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
        0.017930323 = weight(_text_:des in 5901) [ClassicSimilarity], result of:
          0.017930323 = score(doc=5901,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.24477452 = fieldWeight in 5901, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5901)
      0.22222222 = coord(4/18)
    
    Abstract
    Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
  14. Panskus, E.J.: Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum : eine praktische Annäherung (2019) 0.02
    0.018009488 = product of:
      0.108056925 = sum of:
        0.05179239 = weight(_text_:medien in 5452) [ClassicSimilarity], result of:
          0.05179239 = score(doc=5452,freq=2.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.4160113 = fieldWeight in 5452, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=5452)
        0.028132265 = weight(_text_:und in 5452) [ClassicSimilarity], result of:
          0.028132265 = score(doc=5452,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.47985753 = fieldWeight in 5452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5452)
        0.028132265 = weight(_text_:und in 5452) [ClassicSimilarity], result of:
          0.028132265 = score(doc=5452,freq=12.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.47985753 = fieldWeight in 5452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5452)
      0.16666667 = coord(3/18)
    
    Abstract
    In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.
  15. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.02
    0.016818894 = product of:
      0.10091336 = sum of:
        0.024865646 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.024865646 = score(doc=3337,freq=24.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.024865646 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.024865646 = score(doc=3337,freq=24.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.42413816 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
        0.051182073 = weight(_text_:technik in 3337) [ClassicSimilarity], result of:
          0.051182073 = score(doc=3337,freq=4.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.3888021 = fieldWeight in 3337, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.16666667 = coord(3/18)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
  16. Baker, T.; Fischer, T.: Bericht von der Dublin-Core-Konferenz (DC-2005) in Madrid (2005) 0.02
    0.016744094 = product of:
      0.07534842 = sum of:
        0.028539913 = weight(_text_:allgemeines in 4872) [ClassicSimilarity], result of:
          0.028539913 = score(doc=4872,freq=2.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.18910983 = fieldWeight in 4872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.016680382 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.016680382 = score(doc=4872,freq=30.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.28452054 = fieldWeight in 4872, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.016680382 = weight(_text_:und in 4872) [ClassicSimilarity], result of:
          0.016680382 = score(doc=4872,freq=30.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.28452054 = fieldWeight in 4872, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
        0.013447743 = weight(_text_:des in 4872) [ClassicSimilarity], result of:
          0.013447743 = score(doc=4872,freq=8.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 4872, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4872)
      0.22222222 = coord(4/18)
    
    Content
    "1. Die Konferenz Vom 12. bis 15. September 2005 fand in Leganés (Madrid) die "International Conference an Dublin Core and Metadata Applications" mit dem Thema "Vocabularies in Practice" statt [DC2005]. Gastgeber war der Fachbereich Bibliothekswesen und Dokumentation der "Universidad Carlos III de Madrid" zusammen mit dem Institut "Agustin Millares" für Dokumentation und Wissensmanagement. Den 214 Teilnehmern aus 33 Ländern wurden 14 ausführliche und 18 Kurzpräsentationen geboten sowie zehn "Special Sessions" [DC2005-PAPERS]. Fünf Einführungsseminare zu Themen der Metadaten und maschinell verarbeitbarer Thesauri wurden abgehalten. Die Hauptreden der vier Konferenztage wurden von Thomas Baker (Staats- und Universitätsbibliothek Göttingen), Ricardo Baeza (University of Chile), Johannes Keizer (Food and Agriculture Organization of the United Nations) und Eric Miller (World Wide Web Consortium) gehalten. Plenarvorträge wurden simultan ins Spanische übersetzt und mehrere Treffen wurden in französischer oder spanischer Sprache abgehalten. Die Dublin-Core-Konferenz ist auch das zentrale Ereignis des Jahres für die Dublin Core Metadata Initiative (DCMI) als Organisation. Vor und nach der Konferenz tagten das DCMI Board of Trustees, ein Gremium aus Metadatenexperten und nationalen Vertretern ("Affiliates"); das "Usage Board", das den Standard inhaltlich verwaltet, und das "Advisory Board", das hauptsächlich aus Leitern von DCMI-Arbeitsgruppen besteht. Während der Konferenz haben sich vierzehn Arbeitsgruppen zu speziellen Fragen im Bereich Metadaten getroffen. 2. Von der Kernsemantik zum Modell "Zehn Jahre Dublin Core" war der Hintergrund für die Keynote-Präsehtation von Thomas Baker, DCMI Director of Specifications and Documentation. März 1995 fand in Dublin (Ohio) der Workshop statt, auf dem die Kernelemente erstmals entworfen wurden - Creator, Subject, Date, usw. - die der Initiative den Namen gegeben haben. Dieser "Dublin Core" wurde 1998 bei der Internet Engineering Task Force als Request for Comments (RFC 2413) publiziert, 2000 formal als Standard in Europa (CWA 13874/2000 bei CEN), 2001 in den USA (Z39.95 bei NISO) und 2003 international (ISO 15836/2003) anerkannt [DUBLINCORE]. Am Anfang wurde der Dublin Core als Datenformat konzipiert - d.h. als streng festgelegte Vorlage für digitale Karteikarten. Bereits früh wurden die Elemente jedoch als Vokabular aufgefasst, d.h. als Satz prinzipiell rekombinierbarer Elemente für Beschreibungen, die den Anforderungen spezifischer Anwendungsbereiche angepasst werden konnten - kurz, als Bausteine für Anwendungsprofile. Ausgehend von der vermeintlich simplen Aufgabe, Webseiten auf einfache Art zu beschreiben, hat sich ab 1997 in gegenseitiger Beeinflussung mit der sich entwickelnden Webtechnik von HTML bis hin zu XML und RDF ein allgemeines Modell für Metadaten herauskristallisiert.
    Im März 2005 hat die DCMI mit der Verabschiedung des so genannten "Abstrakten Modells" einen wichtigen Meilenstein erreicht. Dieses DC-Modell ist die formale Grammatik der Metadatensprache, die sich im Laufe der Jahre entwickelt hat. Es hat eine gemeinsame Wurzel mit dem Modell des Semantic Web beim W3C und teilt dessen Grundstruktur, bleibt jedoch absichtlich einfacher als die voll entwickelten Ontologiesprachen des letzteren. Das abstrakte Modell dient als Maßstab für den systematischen Vergleich verschiedenartiger Implementierungstechniken in Bezug auf deren Ausdrucksfähigkeit. Ein hierarchisch aufgebautes XML-Schema kann beispielsweise Metainformationen differenzierter übertragen als ein HTML-Webdokument mit einem flachen Satz eingebetteter META-Tags. Dagegen kann RDF expliziter als ein XML-Schema die Semantik einer Beschreibung in einen größeren semantischen Zusammenhang verankern und somit die Rekombinierbarkeit der Daten erleichtern. In der Praxis müssen Systementwickler sich für die eine oder andere Implementierungstechnik entscheiden, dabei liefern die Metadaten nur eines von mehreren Kriterien. Das DC-Modell bietet eine Basis für den Vergleich der möglichen Lösungen in Hinblick auf die Unterstützung von Metadaten und dient somit als Vorbereitung für deren spätere Integration. Die Interoperabilität der Metadaten ist aber nicht nur eine Frage einer gemeinsamen Semantik mit einem gemeinsamen Modell. Wie auch bei menschlichen Sprachen wird die Interoperabilität umso vollkommener, je besser die Sprachgebräuche verstanden werden - d.h. die Katalogisierungsregeln, die den Metadaten zugrunde liegen. Die Metadatenregeln, die innerhalb einer Anwendungsgemeinschaft benutzt werden, sind Gegenstand eines so genannten Anwendungsprofils. Viele DCMI-Arbeitsgruppen sehen ihre Hauptaufgabe darin, ein Anwendungsprofil für ein bestimmtes Arbeitsgebiet zu erstellen (siehe Abschnitt 6, unten). Diesem Trend zufolge orientiert sich das DCMI Usage Board zunehmend auf die Überprüfung ganzer Anwendungsprofile auf Übereinstimmung mit dem DCMI-Modell."
  17. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.02
    0.016205711 = product of:
      0.0729257 = sum of:
        0.024363257 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.024363257 = score(doc=266,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.024363257 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.024363257 = score(doc=266,freq=16.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.013447743 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.013447743 = score(doc=266,freq=2.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.18358089 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.010751449 = product of:
          0.021502897 = sum of:
            0.021502897 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.021502897 = score(doc=266,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  18. Mittler, E.: Dublin Core und deutsche Bibliotheken (2000) 0.02
    0.01557597 = product of:
      0.093455814 = sum of:
        0.054934125 = weight(_text_:medien in 4455) [ClassicSimilarity], result of:
          0.054934125 = score(doc=4455,freq=4.0), product of:
            0.124497555 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026451524 = queryNorm
            0.44124663 = fieldWeight in 4455, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.019260846 = weight(_text_:und in 4455) [ClassicSimilarity], result of:
          0.019260846 = score(doc=4455,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 4455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
        0.019260846 = weight(_text_:und in 4455) [ClassicSimilarity], result of:
          0.019260846 = score(doc=4455,freq=10.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.328536 = fieldWeight in 4455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4455)
      0.16666667 = coord(3/18)
    
    Abstract
    Ende Oktober 1999 hat das 7. Dublin core Meeting in der Deutschen Bibliothek in Frankfurt/M. in beeindruckender Weise die Internationalität und Interdisziplinarität dieses Ansatzes zur Beschreibung elektronischer Medien verdeutlicht. Es war zugleich eine Anerkennung für die vielfältigen deutschen Aktivitäten. Anhand von Beispielen (Math-Net und Math-Bibl-Net; SSG-FI der SUB Göttingen; Südwestverbund und HBZ) werden die Zielvorstellungen von Dublin Core herausgearbeitet. Um die Auffindbarkeit der elektronischen Dokumente durch Standardisierung der Metadaten zu sichern setzt DC schon beim Autor an. Es ist u.a. gelungen, DC im Rahmen von neuen Standards wie open-e-book zu implementieren. Damit wird die Interoperabilität von Metadaten wesentlich verbessert. Die deutschen Bibliotheken haben sich erfolgreich in die internationale Entwicklung integriert. Auch die Teilnahme am OCLC-Projekt CORC trägt dazu bei. Das kann Rückwirkungen auch auf die Regeln für die Katalogisierung gedruckter Medien haben
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.46-55
  19. Strobel, S.: Englischsprachige Erweiterung des TIB / AV-Portals : Ein GND/DBpedia-Mapping zur Gewinnung eines englischen Begriffssystems (2014) 0.02
    0.015546117 = product of:
      0.069957525 = sum of:
        0.0071780933 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.0071780933 = score(doc=2876,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.0071780933 = weight(_text_:und in 2876) [ClassicSimilarity], result of:
          0.0071780933 = score(doc=2876,freq=2.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12243814 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.03619119 = weight(_text_:technik in 2876) [ClassicSimilarity], result of:
          0.03619119 = score(doc=2876,freq=2.0), product of:
            0.13164042 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.026451524 = queryNorm
            0.2749246 = fieldWeight in 2876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
        0.019410145 = weight(_text_:des in 2876) [ClassicSimilarity], result of:
          0.019410145 = score(doc=2876,freq=6.0), product of:
            0.07325241 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026451524 = queryNorm
            0.2649762 = fieldWeight in 2876, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Videos des TIB / AV-Portals werden mit insgesamt 63.356 GND-Sachbegriffen aus Naturwissenschaft und Technik automatisch verschlagwortet. Neben den deutschsprachigen Videos verfügt das TIB / AV-Portal auch über zahlreiche englischsprachige Videos. Die GND enthält zu den in der TIB / AV-Portal-Wissensbasis verwendeten Sachbegriffen nur sehr wenige englische Bezeichner. Es fehlt demnach ein englisches Indexierungsvokabular, mit dem die englischsprachigen Videos automatisch verschlagwortet werden können. Die Lösung dieses Problems sieht wie folgt aus: Die englischen Bezeichner sollen über ein Mapping der GND-Sachbegriffe auf andere Datensätze gewonnen werden, die eine englische Übersetzung der Begriffe enthalten. Die verwendeten Mappingstrategien nutzen die DBpedia, LCSH, MACS-Ergebnisse sowie den WTI-Thesaurus. Am Ende haben 35.025 GND-Sachbegriffe (mindestens) einen englischen Bezeichner ermittelt bekommen. Diese englischen Bezeichner können für die automatische Verschlagwortung der englischsprachigen Videos unmittelbar herangezogen werden. 11.694 GND-Sachbegriffe konnten zwar nicht ins Englische "übersetzt", aber immerhin mit einem Oberbegriff assoziiert werden, der eine englische Übersetzung hat. Diese Assoziation dient der Erweiterung der Suchergebnisse.
    Content
    Beitrag als ausgearbeitete Form eines Vortrages während des 103. Deutschen Bibliothekartages in Bremen. Vgl.: https://www.o-bib.de/article/view/2014H1S197-204.
  20. Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany (2008) 0.02
    0.015016008 = product of:
      0.067572035 = sum of:
        0.047088455 = weight(_text_:allgemeines in 2668) [ClassicSimilarity], result of:
          0.047088455 = score(doc=2668,freq=4.0), product of:
            0.15091713 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026451524 = queryNorm
            0.31201532 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.00710595 = weight(_text_:und in 2668) [ClassicSimilarity], result of:
          0.00710595 = score(doc=2668,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12120757 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.00710595 = weight(_text_:und in 2668) [ClassicSimilarity], result of:
          0.00710595 = score(doc=2668,freq=4.0), product of:
            0.058626287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026451524 = queryNorm
            0.12120757 = fieldWeight in 2668, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2668)
        0.0062716785 = product of:
          0.012543357 = sum of:
            0.012543357 = weight(_text_:22 in 2668) [ClassicSimilarity], result of:
              0.012543357 = score(doc=2668,freq=2.0), product of:
                0.09262873 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026451524 = queryNorm
                0.1354154 = fieldWeight in 2668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2668)
          0.5 = coord(1/2)
      0.22222222 = coord(4/18)
    
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren

Authors

Years

Languages

  • e 103
  • d 96
  • f 1
  • i 1
  • ru 1
  • sp 1
  • More… Less…

Types

  • a 179
  • el 22
  • m 6
  • s 6
  • x 4
  • b 2
  • n 1
  • r 1
  • More… Less…