Search (26 results, page 2 of 2)

  • × type_ss:"r"
  • × year_i:[2010 TO 2020}
  1. Erschließung in der Deutschen Nationalbibliothek ab 1. Oktober 2015 (2015) 0.00
    0.0048259455 = product of:
      0.019303782 = sum of:
        0.019303782 = product of:
          0.038607564 = sum of:
            0.038607564 = weight(_text_:der in 2440) [ClassicSimilarity], result of:
              0.038607564 = score(doc=2440,freq=8.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.3948779 = fieldWeight in 2440, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2440)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Am 1. Oktober 2015 wird die Deutsche Nationalbibliothek (DNB) mit der Erschließung nach dem Regelwerk Resource Description and Access (RDA) beginnen. Die Verbünde und Bibliotheken in Deutschland, Österreich und der deutschsprachigen Schweiz folgen innerhalb der darauffolgenden drei Monate. Im Vorfeld des Umstiegs auf RDA waren nicht nur umfangreiche Schulungsunterlagen zu erstellen und Schulungen zu planen, sondern die DNB musste auch ihre Erschließungspraxis überprüfen und hat in Folge dieser Überprüfung sowohl die Formal- als auch die Inhaltserschließung neu ausgerichtet.
  2. AG KIM Gruppe Titeldaten DINI: Empfehlungen zur RDF-Repräsentation bibliografischer Daten (2014) 0.00
    0.004672702 = product of:
      0.018690808 = sum of:
        0.018690808 = product of:
          0.037381615 = sum of:
            0.037381615 = weight(_text_:der in 4668) [ClassicSimilarity], result of:
              0.037381615 = score(doc=4668,freq=30.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.3823389 = fieldWeight in 4668, product of:
                  5.477226 = tf(freq=30.0), with freq of:
                    30.0 = termFreq=30.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4668)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren wurde eine Vielzahl an Datensets aus Kultur- und Wissenschaftseinrichtungen als Linked Open Data veröffentlicht. Auch das deutsche Bibliothekswesen hat sich aktiv an den Entwicklungen im Bereich Linked Data beteiligt. Die zuvor lediglich in den Bibliothekskatalogen vorliegenden Daten können weiteren Sparten geöffnet und so auf vielfältige Weise in externe Anwendungen eingebunden werden. Gemeinsames Ziel bei der Veröffentlichung der Bibliotheksdaten als Linked Data ist außerdem, Interoperabilität und Nachnutzbarkeit zu ermöglichen und sich auf diese Weise stärker mit anderen Domänen außerhalb der Bibliothekswelt zu vernetzen. Es bestehen sowohl Linked-Data-Services einzelner Bibliotheken als auch der deutschen Bibliotheksverbünde. Trotz ihres gemeinsamen Ziels sprechen die bestehenden Services nicht die gleiche Sprache, da sie auf unterschiedlichen Modellierungen basieren. Um die Interoperabilität dieser Datenquellen zu gewährleisten, sollten die Dienste künftig einer einheitlichen Modellierung folgen. Vor diesem Hintergrund wurde im Januar 2012 eine Arbeitsgruppe gegründet, in der alle deutschen Bibliotheksverbünde, die Deutsche Nationalbibliothek sowie einige weitere interessierte und engagierte Kolleginnen und Kollegen mit entsprechender Expertise vertreten sind. Die Gruppe Titeldaten agiert seit April 2012 als Untergruppe des Kompetenzzentrums Interoperable Metadaten (DINI-AG KIM). Die Moderation und Koordination liegt bei der Deutschen Nationalbibliothek. Im Dezember 2012 schloss sich auch der OBVSG der Arbeitsgruppe an. Die Schweizerische Nationalbibliothek folgte im Mai 2013. Vorliegende Empfehlungen sollen zu einer Harmonisierung der RDFRepräsentationen von Titeldaten im deutschsprachigen Raum beitragen und so möglichst einen Quasi-Standard etablieren. Auch international wird an der Herausforderung gearbeitet, die bestehenden bibliothekarischen Strukturen in die heute zur Verfügung stehenden Konzepte des Semantic Web zu überführen und ihren Mehrwert auszuschöpfen. Die neuesten internationalen Entwicklungen im Bereich der Bereitstellung bibliografischer Daten im Semantic Web wie die Bibliographic Framework Transition Initiative der Library of Congress (BIBFRAME) haben ebenfalls das Ziel, ein Modell zur RDF-Repräsentation bibliothekarischer Daten bereitzustellen. Die Gruppe Titeldaten beobachtet diese Entwicklungen und beabsichtigt, die Erfahrungen und Anforderungen der deutschsprachigen Bibliothekswelt mit einzubringen. Dabei werden einerseits international erarbeitete Empfehlungen aufgegriffen und andererseits Impulse aus der nationalen Kooperation dort eingebracht. Die hier verwendeten Properties könnten z. B. als Grundlage für ein Mapping zu BIBFRAME dienen.
    Content
    Enthält Übersicht der RDF-Elemente für die bibliografischen Relationen. Vgl.: urn:nbn:de:kobv:11-100217673. Version 2.0 unter: https://nbn-resolving.org/urn:nbn:de:kobv:11-110-18452/2153.3-7 (vgl. Mail an Inetbib vom 08.01.2019). Webversion unter: https://wiki.dnb.de/x/cYMOB.
  3. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.00
    0.0036940952 = product of:
      0.014776381 = sum of:
        0.014776381 = product of:
          0.029552761 = sum of:
            0.029552761 = weight(_text_:der in 4063) [ClassicSimilarity], result of:
              0.029552761 = score(doc=4063,freq=12.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.30226544 = fieldWeight in 4063, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  4. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.00
    0.003412459 = product of:
      0.013649836 = sum of:
        0.013649836 = product of:
          0.027299672 = sum of:
            0.027299672 = weight(_text_:der in 994) [ClassicSimilarity], result of:
              0.027299672 = score(doc=994,freq=16.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.27922085 = fieldWeight in 994, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.03125 = fieldNorm(doc=994)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  5. Schmidt, F.A.: Crowdproduktion von Trainingsdaten : zur Rolle von Online-Arbeit beim Trainieren autonomer Fahrzeuge (2019) 0.00
    0.0033722322 = product of:
      0.013488929 = sum of:
        0.013488929 = product of:
          0.026977858 = sum of:
            0.026977858 = weight(_text_:der in 5256) [ClassicSimilarity], result of:
              0.026977858 = score(doc=5256,freq=10.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.27592933 = fieldWeight in 5256, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5256)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Seit 2017 gibt es einen starken Anstieg in der Nachfrage nach hochpräzisen Trainingsdaten für die KI-Modelle der Automobilindustrie. Ohne große Mengen dieser Daten ist das ehrgeizige Ziel des autonomen Fahrens nicht zu erreichen. Damit aus selbstlernenden Algorithmen selbstlenkende Fahrzeuge werden können, braucht es allerdings zunächst viel Handarbeit, die von Crowds auf der ganzen Welt geleistet wird. Sie bringen den lernenden Maschinen das Hören, das Sehen und das umsichtige Fahren bei.Auf der Kundenseite für crowdproduzierte Trainingsdaten drängen Dutzende gut finanzierte Firmen in den entstehenden Markt für das autonome Fahren. Mit den großen Automarken (OEMs) und deren etablierten Zulieferern konkurrieren nun auch große Hardware- und Softwarefirmen wie Intel und Nvidia, Google und Apple, die bisher wenig mit Autos zu tun hatten; hinzu kommen zahlreiche risikokapitalfinanzierte Start-ups. 2018 verfügten bereits 55 Firmen über eine Lizenz zum Testen eigener autonomer Fahrzeu-ge in Kalifornien. Tendenz steigend. Sie alle sind für das Funktionieren ihrer Algorithmen auf präzise beschriftete - "annotierte" - Trainingsdaten angewiesen. Sie brauchen Millionen von Fotos aus dem Straßenverkehr, bei denen jedes abgebildete Pixel einer Szene semantisch einem Objekt zugeordnet wurde. Fahrbahnmarkierungen, Fahrzeuge, und Fußgänger müssen trennscharf voneinander abgegrenzt und mit Zusatzinformationen versehen werden, damit im Zuge des maschinellen Lernens daraus Regeln abgeleitet und Softwaremodelle entwickelt werden können.
    Series
    Study der Hans-Böckler-Stiftung; 417
  6. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.00
    0.0021113514 = product of:
      0.008445405 = sum of:
        0.008445405 = product of:
          0.01689081 = sum of:
            0.01689081 = weight(_text_:der in 4782) [ClassicSimilarity], result of:
              0.01689081 = score(doc=4782,freq=2.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.17275909 = fieldWeight in 4782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4782)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.