Search (42 results, page 1 of 3)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Metadaten"
  1. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.05
    0.047853187 = product of:
      0.14355956 = sum of:
        0.11145297 = weight(_text_:einzelne in 3910) [ClassicSimilarity], result of:
          0.11145297 = score(doc=3910,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 3910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
        0.032106593 = weight(_text_:der in 3910) [ClassicSimilarity], result of:
          0.032106593 = score(doc=3910,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 3910, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3910)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  2. Pfister, E.; Wittwer, B.; Wolff, M.: Metadaten - Manuelle Datenpflege vs. Automatisieren : ein Praxisbericht zu Metadatenmanagement an der ETH-Bibliothek (2017) 0.02
    0.01968294 = product of:
      0.059048817 = sum of:
        0.039322384 = weight(_text_:der in 5630) [ClassicSimilarity], result of:
          0.039322384 = score(doc=5630,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4231716 = fieldWeight in 5630, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5630)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 5630) [ClassicSimilarity], result of:
              0.039452866 = score(doc=5630,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 5630, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5630)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Neue Entwicklungen im Bibliothekswesen und in der Technologie führen zu neuen ufgaben, die spezialisierte Fachkräfte erfordern. Die ETH-Bibliothek reagierte darauf, indem sie das Pilotprojekt "Metadatenmanagement" startete, welches sich mit Datenanalysen, -einspielungen und -mutationen, Datenmappings, der Erstellung eines Datenflussdiagramms, sowie mit der Einführung von RDA und GND beschäftigte. Nach zwei Jahren zeigte sich, dass zahlreiche Aufgabengebiete existieren, welche von Metadatenspezialisten, als Schnittstelle zwischen den Fachabteilungen und der IT, übernommen werden können. Dieser Bericht fasst die getätigten Arbeiten, Erfahrungen und Erkenntnisse der zweijährigen Pilotphase zusammen.
    Source
    B.I.T.online. 20(2017) H.1, S.22-25
  3. Baker, T.: Dublin Core Application Profiles : current approaches (2010) 0.01
    0.014809437 = product of:
      0.04442831 = sum of:
        0.027519938 = weight(_text_:der in 3737) [ClassicSimilarity], result of:
          0.027519938 = score(doc=3737,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 3737, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3737)
        0.016908372 = product of:
          0.033816744 = sum of:
            0.033816744 = weight(_text_:22 in 3737) [ClassicSimilarity], result of:
              0.033816744 = score(doc=3737,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.23214069 = fieldWeight in 3737, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3737)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  4. Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017) 0.01
    0.0068799844 = product of:
      0.041279905 = sum of:
        0.041279905 = weight(_text_:der in 3914) [ClassicSimilarity], result of:
          0.041279905 = score(doc=3914,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44423765 = fieldWeight in 3914, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3914)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
  5. Panskus, E.J.: Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum : eine praktische Annäherung (2019) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 5452) [ClassicSimilarity], result of:
          0.03669325 = score(doc=5452,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 5452, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5452)
      0.16666667 = coord(1/6)
    
    Abstract
    In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.
    Series
    Zukunft der Informationswissenschaft / Hat die Informationswissenschaft eine Zukunft?
  6. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.01
    0.006067576 = product of:
      0.036405455 = sum of:
        0.036405455 = weight(_text_:der in 3732) [ClassicSimilarity], result of:
          0.036405455 = score(doc=3732,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3917808 = fieldWeight in 3732, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
      0.16666667 = coord(1/6)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  7. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.01
    0.0060434504 = product of:
      0.0362607 = sum of:
        0.0362607 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.0362607 = score(doc=115,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.390223 = fieldWeight in 115, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.16666667 = coord(1/6)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
  8. Blumesberger, S.; Zartl, A.: Umgang mit Metadaten in Repositorien : eine österreichweite Umfrage (2017) 0.01
    0.005982711 = product of:
      0.035896264 = sum of:
        0.035896264 = weight(_text_:der in 3911) [ClassicSimilarity], result of:
          0.035896264 = score(doc=3911,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.38630107 = fieldWeight in 3911, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3911)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieser Artikel enthält eine Auswertung der Telefonumfrage zum Thema "Metadaten", die im Sommer 2015 unter den am Projekt e-Infrastructures Austria teilnehmenden Institutionen durchgeführt wurde. Ziel der Befragung war eine Bestandsaufnahme der an den einzelnen Universitäten im Einsatz befindlichen Repositorien, um einen Überblick über die wichtigsten Softwaresysteme und deren spezifische Einsatzzwecke, die am häufigsten verwendeten Metadatenstandards und die Gepflogenheiten bzw. Erwartungen der Nutzer und Nutzerinnen zu gewinnen. Zukünftige Planungen und Entwicklungen waren ebenfalls Gegenstand des Fragebogens.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.249-273
  9. Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019) 0.01
    0.005617484 = product of:
      0.033704903 = sum of:
        0.033704903 = weight(_text_:der in 5350) [ClassicSimilarity], result of:
          0.033704903 = score(doc=5350,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.36271852 = fieldWeight in 5350, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5350)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.
  10. Strobel, S.: Englischsprachige Erweiterung des TIB / AV-Portals : Ein GND/DBpedia-Mapping zur Gewinnung eines englischen Begriffssystems (2014) 0.01
    0.0050563132 = product of:
      0.03033788 = sum of:
        0.03033788 = weight(_text_:der in 2876) [ClassicSimilarity], result of:
          0.03033788 = score(doc=2876,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 2876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2876)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Videos des TIB / AV-Portals werden mit insgesamt 63.356 GND-Sachbegriffen aus Naturwissenschaft und Technik automatisch verschlagwortet. Neben den deutschsprachigen Videos verfügt das TIB / AV-Portal auch über zahlreiche englischsprachige Videos. Die GND enthält zu den in der TIB / AV-Portal-Wissensbasis verwendeten Sachbegriffen nur sehr wenige englische Bezeichner. Es fehlt demnach ein englisches Indexierungsvokabular, mit dem die englischsprachigen Videos automatisch verschlagwortet werden können. Die Lösung dieses Problems sieht wie folgt aus: Die englischen Bezeichner sollen über ein Mapping der GND-Sachbegriffe auf andere Datensätze gewonnen werden, die eine englische Übersetzung der Begriffe enthalten. Die verwendeten Mappingstrategien nutzen die DBpedia, LCSH, MACS-Ergebnisse sowie den WTI-Thesaurus. Am Ende haben 35.025 GND-Sachbegriffe (mindestens) einen englischen Bezeichner ermittelt bekommen. Diese englischen Bezeichner können für die automatische Verschlagwortung der englischsprachigen Videos unmittelbar herangezogen werden. 11.694 GND-Sachbegriffe konnten zwar nicht ins Englische "übersetzt", aber immerhin mit einem Oberbegriff assoziiert werden, der eine englische Übersetzung hat. Diese Assoziation dient der Erweiterung der Suchergebnisse.
  11. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.01
    0.0050563132 = product of:
      0.03033788 = sum of:
        0.03033788 = weight(_text_:der in 3337) [ClassicSimilarity], result of:
          0.03033788 = score(doc=3337,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 3337, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3337)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
  12. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.01
    0.0050054947 = product of:
      0.030032966 = sum of:
        0.030032966 = weight(_text_:der in 4440) [ClassicSimilarity], result of:
          0.030032966 = score(doc=4440,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32320264 = fieldWeight in 4440, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
      0.16666667 = coord(1/6)
    
    Abstract
    "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
  13. Kopácsi, S. et al.: Development of a classification server to support metadata harmonization in a long term preservation system (2016) 0.00
    0.00469677 = product of:
      0.02818062 = sum of:
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 3280) [ClassicSimilarity], result of:
              0.05636124 = score(doc=3280,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  14. Hajra, A. et al.: Enriching scientific publications from LOD repositories through word embeddings approach (2016) 0.00
    0.00469677 = product of:
      0.02818062 = sum of:
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 3281) [ClassicSimilarity], result of:
              0.05636124 = score(doc=3281,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 3281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3281)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  15. Mora-Mcginity, M. et al.: MusicWeb: music discovery with open linked semantic metadata (2016) 0.00
    0.00469677 = product of:
      0.02818062 = sum of:
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 3282) [ClassicSimilarity], result of:
              0.05636124 = score(doc=3282,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 3282, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3282)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  16. Kopácsi, S.; Hudak, R.; Ganguly, R.: Implementation of a classification server to support metadata organization for long term preservation systems (2017) 0.00
    0.004634188 = product of:
      0.027805127 = sum of:
        0.027805127 = weight(_text_:der in 3915) [ClassicSimilarity], result of:
          0.027805127 = score(doc=3915,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 3915, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3915)
      0.16666667 = coord(1/6)
    
    Abstract
    In diesem Artikel beschreiben wir die Implementierung eines Klassifikationsservers für Metadatenorganisation in einem Langzeitarchivierungssystem für digitale Objekte. Nach einer kurzen Einführung in Klassifikationen und Wissensorganisationen stellen wir die Anforderungen an das zu implementierende System vor. Wir beschreiben sämtliche Simple Knowledge Organization System (SKOS) Management Tools, die wir untersucht haben, darunter auch Skosmos, die Lösung, die wir für die Implementierung gewählt haben. Skosmos ist ein open source, webbasierter SKOS Browser, basierend auf dem Jena Fuseki SPARQL Server. Wir diskutieren einige entscheidende Schritte während der Installation der ausgewählten Tools und präsentieren sowohl die potentiell auftretenden Probleme mit den verwendeten Klassifikationen als auch mögliche Lösungen.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.225-243
  17. Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016) 0.00
    0.0045866566 = product of:
      0.027519938 = sum of:
        0.027519938 = weight(_text_:der in 3139) [ClassicSimilarity], result of:
          0.027519938 = score(doc=3139,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 3139, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3139)
      0.16666667 = coord(1/6)
    
    Abstract
    Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 69(2016) H.1, S.41-57
  18. Söhler, M.: Schluss mit Schema F (2011) 0.00
    0.0045866566 = product of:
      0.027519938 = sum of:
        0.027519938 = weight(_text_:der in 4439) [ClassicSimilarity], result of:
          0.027519938 = score(doc=4439,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29615843 = fieldWeight in 4439, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.16666667 = coord(1/6)
    
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  19. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.00
    0.004324341 = product of:
      0.025946045 = sum of:
        0.025946045 = weight(_text_:der in 994) [ClassicSimilarity], result of:
          0.025946045 = score(doc=994,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 994, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=994)
      0.16666667 = coord(1/6)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  20. Assfalg, R.: Metadaten (2013) 0.00
    0.0038222135 = product of:
      0.02293328 = sum of:
        0.02293328 = weight(_text_:der in 711) [ClassicSimilarity], result of:
          0.02293328 = score(doc=711,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 711, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=711)
      0.16666667 = coord(1/6)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried

Languages

  • e 26
  • d 16

Types

  • a 37
  • el 8
  • m 2
  • r 1
  • s 1
  • x 1
  • More… Less…