Search (121 results, page 1 of 7)

  • × theme_ss:"Metadaten"
  1. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.01
    0.00806872 = product of:
      0.11296207 = sum of:
        0.11296207 = weight(_text_:daten in 994) [ClassicSimilarity], result of:
          0.11296207 = score(doc=994,freq=32.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.84138155 = fieldWeight in 994, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.071428575 = coord(1/14)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  2. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.01
    0.007689449 = product of:
      0.053826142 = sum of:
        0.042360775 = weight(_text_:daten in 2406) [ClassicSimilarity], result of:
          0.042360775 = score(doc=2406,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.31551808 = fieldWeight in 2406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=2406)
        0.011465367 = product of:
          0.022930734 = sum of:
            0.022930734 = weight(_text_:22 in 2406) [ClassicSimilarity], result of:
              0.022930734 = score(doc=2406,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.23214069 = fieldWeight in 2406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.14285715 = coord(2/14)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
    Source
    Dialog mit Bibliotheken. 20(2008) H.1, S.22-24
  3. Petritsch, B.: Metadata for research data in practice (2017) 0.01
    0.0071318084 = product of:
      0.09984531 = sum of:
        0.09984531 = weight(_text_:daten in 3913) [ClassicSimilarity], result of:
          0.09984531 = score(doc=3913,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.7436833 = fieldWeight in 3913, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=3913)
      0.071428575 = coord(1/14)
    
    Abstract
    Welche Daten über Daten brauchen wir? Die Beschreibung des Prozesses diese Frage für das institutionelle Datenrepositourium IST DataRep zu beantworten.
  4. Maule, R.W.: Cognitive maps, AI agents and personalized virtual environments in Internet learning experiences (1998) 0.01
    0.0067672036 = product of:
      0.094740845 = sum of:
        0.094740845 = weight(_text_:media in 5221) [ClassicSimilarity], result of:
          0.094740845 = score(doc=5221,freq=6.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.71706843 = fieldWeight in 5221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0625 = fieldNorm(doc=5221)
      0.071428575 = coord(1/14)
    
    Abstract
    Develops frameworks to help Internet media designers address end user information presentation preferences by advancing structures for assessing metadata design variables. Design variables are then linked to user cognitive styles. An underlying theme is that artificial intelligence methodologies may be used to help automate the Internet media design process and to provide personalized and customized experiences. User preferences concerning knowledge acquisition in online experiences provide the basis for discussions of cognitive analysis, and are extended into structural implications for media design and interaction
  5. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.01
    0.0067658275 = product of:
      0.09472158 = sum of:
        0.09472158 = weight(_text_:daten in 3732) [ClassicSimilarity], result of:
          0.09472158 = score(doc=3732,freq=10.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.7055199 = fieldWeight in 3732, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
      0.071428575 = coord(1/14)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  6. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.01
    0.0061142524 = product of:
      0.08559953 = sum of:
        0.08559953 = weight(_text_:daten in 3910) [ClassicSimilarity], result of:
          0.08559953 = score(doc=3910,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.6375756 = fieldWeight in 3910, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
      0.071428575 = coord(1/14)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
  7. Assfalg, R.: Metadaten (2023) 0.01
    0.0057054465 = product of:
      0.079876244 = sum of:
        0.079876244 = weight(_text_:daten in 787) [ClassicSimilarity], result of:
          0.079876244 = score(doc=787,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.5949466 = fieldWeight in 787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=787)
      0.071428575 = coord(1/14)
    
    Abstract
    Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
  8. Morrow, G.; Swire-Thompson, B.; Montgomery Polny, J.; Kopec, M.; Wihbey, J.P.: ¬The emerging science of content labeling : contextualizing social media content moderation (2022) 0.01
    0.0050754026 = product of:
      0.071055636 = sum of:
        0.071055636 = weight(_text_:media in 660) [ClassicSimilarity], result of:
          0.071055636 = score(doc=660,freq=6.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.5378013 = fieldWeight in 660, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.046875 = fieldNorm(doc=660)
      0.071428575 = coord(1/14)
    
    Abstract
    In the online information ecosystem, a content label is an attachment to a piece of content intended to contextualize that content for the viewer. Content labels are information about information, such as fact-checks or sensitive content warnings. Research into content labeling is nascent, but growing; researchers have made strides toward understanding labeling best practices to deal with issues such as disinformation, and misleading content that may affect everything from voting to health. To make this review tractable, we focus on compiling the literature that can contextualize labeling effects and consequences. This review summarizes the central labeling literature, highlights gaps for future research, discusses considerations for social media, and explores definitions toward a taxonomy. Specifically, this article discusses the particulars of content labels, their presentation, and the effects of various labels. The current literature can guide the usage of labels on social media platforms and inform public debate over platform moderation.
  9. Ziegler, C.: Weltendämmerung : XML und Datenbanken: Einblick in Tamino (2001) 0.01
    0.0050429497 = product of:
      0.07060129 = sum of:
        0.07060129 = weight(_text_:daten in 5802) [ClassicSimilarity], result of:
          0.07060129 = score(doc=5802,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52586347 = fieldWeight in 5802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=5802)
      0.071428575 = coord(1/14)
    
    Abstract
    XML hat sich als Esperanto des Datenaustauschs etabliert und schickt sich an, die eher relationale geprägte Welt der Datenbanken zu verändern. Anders als relationale DBMS legt der Informationsserver Tamino Daten nativ im XML-Format ab
  10. Klever, N.: Elementarteilchen : XML-Schema: objektorientierte Dokumenttypdefinitionen (2001) 0.01
    0.0050429497 = product of:
      0.07060129 = sum of:
        0.07060129 = weight(_text_:daten in 5803) [ClassicSimilarity], result of:
          0.07060129 = score(doc=5803,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52586347 = fieldWeight in 5803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=5803)
      0.071428575 = coord(1/14)
    
    Abstract
    Strukturbeschreibungen von XML-Daten und -Dokumenten waren bislang nur über die aus SGML stammenden Dokumenttypdefinitionen möglich. Mit XML-Schema steht beim W3C die nächste Generation solcher Beschreibungen vor der Verabschiedung. Modular, objektorientiert und natürlich in XML
  11. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.01
    0.0050429497 = product of:
      0.07060129 = sum of:
        0.07060129 = weight(_text_:daten in 5804) [ClassicSimilarity], result of:
          0.07060129 = score(doc=5804,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.52586347 = fieldWeight in 5804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=5804)
      0.071428575 = coord(1/14)
    
  12. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.00
    0.004279085 = product of:
      0.059907187 = sum of:
        0.059907187 = weight(_text_:daten in 1761) [ClassicSimilarity], result of:
          0.059907187 = score(doc=1761,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.44620997 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=1761)
      0.071428575 = coord(1/14)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
  13. Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016) 0.00
    0.004279085 = product of:
      0.059907187 = sum of:
        0.059907187 = weight(_text_:daten in 3139) [ClassicSimilarity], result of:
          0.059907187 = score(doc=3139,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.44620997 = fieldWeight in 3139, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=3139)
      0.071428575 = coord(1/14)
    
    Abstract
    Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
  14. Strobel, S.; Marín-Arraiza, P.: Metadata for scientific audiovisual media : current practices and perspectives of the TIB / AV-portal (2015) 0.00
    0.0042295023 = product of:
      0.059213027 = sum of:
        0.059213027 = weight(_text_:media in 3667) [ClassicSimilarity], result of:
          0.059213027 = score(doc=3667,freq=6.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.44816777 = fieldWeight in 3667, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3667)
      0.071428575 = coord(1/14)
    
    Abstract
    Descriptive metadata play a key role in finding relevant search results in large amounts of unstructured data. However, current scientific audiovisual media are provided with little metadata, which makes them hard to find, let alone individual sequences. In this paper, the TIB / AV-Portal is presented as a use case where methods concerning the automatic generation of metadata, a semantic search and cross-lingual retrieval (German/English) have already been applied. These methods result in a better discoverability of the scientific audiovisual media hosted in the portal. Text, speech, and image content of the video are automatically indexed by specialised GND (Gemeinsame Normdatei) subject headings. A semantic search is established based on properties of the GND ontology. The cross-lingual retrieval uses English 'translations' that were derived by an ontology mapping (DBpedia i. a.). Further ways of increasing the discoverability and reuse of the metadata are publishing them as Linked Open Data and interlinking them with other data sets.
  15. Hardesty, J.L.; Young, J.B.: ¬The semantics of metadata : Avalon Media System and the move to RDF (2017) 0.00
    0.004144049 = product of:
      0.05801668 = sum of:
        0.05801668 = weight(_text_:media in 3896) [ClassicSimilarity], result of:
          0.05801668 = score(doc=3896,freq=4.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.43911293 = fieldWeight in 3896, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.046875 = fieldNorm(doc=3896)
      0.071428575 = coord(1/14)
    
    Abstract
    The Avalon Media System (Avalon) provides access and management for digital audio and video collections in libraries and archives. The open source project is led by the libraries of Indiana University Bloomington and Northwestern University and is funded in part by grants from The Andrew W. Mellon Foundation and Institute of Museum and Library Services. Avalon is based on the Samvera Community (formerly Hydra Project) software stack and uses Fedora as the digital repository back end. The Avalon project team is in the process of migrating digital repositories from Fedora 3 to Fedora 4 and incorporating metadata statements using the Resource Description Framework (RDF) instead of XML files accompanying the digital objects in the repository. The Avalon team has worked on the migration path for technical metadata and is now working on the migration paths for structural metadata (PCDM) and descriptive metadata (from MODS XML to RDF). This paper covers the decisions made to begin using RDF for software development and offers a window into how Semantic Web technology functions in the real world.
  16. Preza, J.L.: Data science und analytics in libraries (2017) 0.00
    0.00403436 = product of:
      0.056481034 = sum of:
        0.056481034 = weight(_text_:daten in 3916) [ClassicSimilarity], result of:
          0.056481034 = score(doc=3916,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.42069077 = fieldWeight in 3916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
      0.071428575 = coord(1/14)
    
    Abstract
    Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
  17. Skare, R.: Paratext (2020) 0.00
    0.0039070467 = product of:
      0.05469865 = sum of:
        0.05469865 = weight(_text_:media in 20) [ClassicSimilarity], result of:
          0.05469865 = score(doc=20,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.41399965 = fieldWeight in 20, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0625 = fieldNorm(doc=20)
      0.071428575 = coord(1/14)
    
    Abstract
    This article presents Gérard Genette's concept of the paratext by defining the term and by describing its characteristics. The use of the concept in disciplines other than literary studies and for media other than printed books is discussed. The last section shows the relevance of the concept for library and information science in general and for knowledge organization, in which paratext in particular is connected to the concept "metadata."
  18. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.00
    0.0035659042 = product of:
      0.049922656 = sum of:
        0.049922656 = weight(_text_:daten in 115) [ClassicSimilarity], result of:
          0.049922656 = score(doc=115,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.37184164 = fieldWeight in 115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.071428575 = coord(1/14)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
  19. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.00
    0.0035300648 = product of:
      0.049420904 = sum of:
        0.049420904 = weight(_text_:daten in 1758) [ClassicSimilarity], result of:
          0.049420904 = score(doc=1758,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.36810443 = fieldWeight in 1758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1758)
      0.071428575 = coord(1/14)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
  20. Social tagging in a linked data environment. Edited by Diane Rasmussen Pennington and Louise F. Spiteri. London, UK: Facet Publishing, 2018. 240 pp. £74.95 (paperback). (ISBN 9781783303380) (2019) 0.00
    0.0034533741 = product of:
      0.048347235 = sum of:
        0.048347235 = weight(_text_:media in 101) [ClassicSimilarity], result of:
          0.048347235 = score(doc=101,freq=4.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.36592746 = fieldWeight in 101, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.0390625 = fieldNorm(doc=101)
      0.071428575 = coord(1/14)
    
    LCSH
    Social media
    Subject
    Social media

Authors

Years

Languages

  • e 92
  • d 27
  • sp 1
  • More… Less…

Types

  • a 108
  • el 11
  • s 8
  • m 5
  • b 2
  • r 1
  • x 1
  • More… Less…