Search (878 results, page 1 of 44)

  • × year_i:[2010 TO 2020}
  1. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.14
    0.13858664 = product of:
      0.27717328 = sum of:
        0.27717328 = sum of:
          0.22700647 = weight(_text_:daten in 4399) [ClassicSimilarity], result of:
            0.22700647 = score(doc=4399,freq=24.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.9108223 = fieldWeight in 4399, product of:
                4.8989797 = tf(freq=24.0), with freq of:
                  24.0 = termFreq=24.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
          0.05016683 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
            0.05016683 = score(doc=4399,freq=4.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.27358043 = fieldWeight in 4399, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4399)
      0.5 = coord(1/2)
    
    Abstract
    Produzenten bibliographischer Daten wie Bibliotheken, Verlage, Universitäten, Wissenschaftler oder soziale, webbasierte Literaturverwaltungsplattformen spielen eine wichtige Rolle bei der Entwicklung menschlichen Wissens. Damit ihre Arbeit der Gesellschaft in vollem Umfang zugutekommt, ist es zwingend erforderlich, bibliographische Daten zu öffnen, das heißt für alle zur beliebigen Nutzung frei verfügbar zu machen.
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
  2. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.10
    0.10251865 = product of:
      0.2050373 = sum of:
        0.2050373 = sum of:
          0.14828001 = weight(_text_:daten in 1679) [ClassicSimilarity], result of:
            0.14828001 = score(doc=1679,freq=4.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.5949466 = fieldWeight in 1679, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=1679)
          0.05675729 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
            0.05675729 = score(doc=1679,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.30952093 = fieldWeight in 1679, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1679)
      0.5 = coord(1/2)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Date
    13. 2.2011 20:22:23
  3. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.10
    0.10251865 = product of:
      0.2050373 = sum of:
        0.2050373 = sum of:
          0.14828001 = weight(_text_:daten in 4331) [ClassicSimilarity], result of:
            0.14828001 = score(doc=4331,freq=4.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.5949466 = fieldWeight in 4331, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
          0.05675729 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
            0.05675729 = score(doc=4331,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.30952093 = fieldWeight in 4331, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4331)
      0.5 = coord(1/2)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  4. Leitfaden zum Forschungsdaten-Management : Handreichungen aus dem WissGrid-Projekt (2013) 0.10
    0.09992133 = product of:
      0.19984266 = sum of:
        0.19984266 = sum of:
          0.1572747 = weight(_text_:daten in 1029) [ClassicSimilarity], result of:
            0.1572747 = score(doc=1029,freq=8.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.63103616 = fieldWeight in 1029, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
          0.042567965 = weight(_text_:22 in 1029) [ClassicSimilarity], result of:
            0.042567965 = score(doc=1029,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 1029, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1029)
      0.5 = coord(1/2)
    
    Abstract
    Digitale Forschungsdaten sind eine unverzichtbare Grundlage moderner Wissenschaft. Mit ihnen sind aber eine Reihe von notwendigen Datenmanagement-Aufgaben verbunden, damit sie in der aktiven Forschung bestmöglich eingesetzt werden können und die gute wissenschaftliche Praxis eingehalten wird. Wie lange sollen die Daten aufbewahrt werden? Welche Kontextinformtionen müssen erfasst werden, um die Daten zu einem späteren Zeitpunkt noch sinnvol benutzen zu können? Wie viel kostet die Aufbewahrung? Dieses Buch kann diese Fragen nur aufwerfen, nicht beantworten. Denn ohne auf Details der jeweiligen Disziplin, Forschungsdaten und Projekte einzugehen, lassen sich diese Fragen nicht allegemeinverbindlich klären. Was dieses Buch jedoch mit einem Leitfaden und einer Checkliste bereitstellt, ist ein einfaches Instrument für fachwissenschatliche oder Infrastruktur-Einrichtungen, um die wichtigsten Aufgaben und Fragen im Forschungsdaten-Management strukturiert beantworten und effizient planen zu können.
    Date
    19.12.2015 11:57:22
    RSWK
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung
    Subject
    Deutschland / Forschungsprozess / Digitale Daten / Datenmanagement / Langzeitarchivierung
  5. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.10
    0.09992133 = product of:
      0.19984266 = sum of:
        0.19984266 = sum of:
          0.1572747 = weight(_text_:daten in 1736) [ClassicSimilarity], result of:
            0.1572747 = score(doc=1736,freq=8.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.63103616 = fieldWeight in 1736, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.042567965 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.042567965 = score(doc=1736,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
  6. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.09
    0.089385934 = product of:
      0.17877187 = sum of:
        0.17877187 = sum of:
          0.1362039 = weight(_text_:daten in 164) [ClassicSimilarity], result of:
            0.1362039 = score(doc=164,freq=6.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.5464934 = fieldWeight in 164, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
          0.042567965 = weight(_text_:22 in 164) [ClassicSimilarity], result of:
            0.042567965 = score(doc=164,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 164, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
      0.5 = coord(1/2)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  7. Börner, K.: Atlas of knowledge : anyone can map (2015) 0.09
    0.0857051 = product of:
      0.1714102 = sum of:
        0.1714102 = sum of:
          0.11121 = weight(_text_:daten in 3355) [ClassicSimilarity], result of:
            0.11121 = score(doc=3355,freq=4.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.44620997 = fieldWeight in 3355, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3355)
          0.0602002 = weight(_text_:22 in 3355) [ClassicSimilarity], result of:
            0.0602002 = score(doc=3355,freq=4.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.32829654 = fieldWeight in 3355, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3355)
      0.5 = coord(1/2)
    
    Date
    22. 1.2017 16:54:03
    22. 1.2017 17:10:56
    RSWK
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
    Subject
    Wissen / Daten / Visualisierung / Gebrauchsgrafik / Informationsgrafik / Thematische Karte
  8. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.08
    0.08316864 = product of:
      0.16633728 = sum of:
        0.16633728 = product of:
          0.4990118 = sum of:
            0.4990118 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.4990118 = score(doc=973,freq=2.0), product of:
                0.44394645 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.052364457 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  9. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.08080354 = product of:
      0.16160709 = sum of:
        0.16160709 = sum of:
          0.10484979 = weight(_text_:daten in 4427) [ClassicSimilarity], result of:
            0.10484979 = score(doc=4427,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.42069077 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.05675729 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.05675729 = score(doc=4427,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  10. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.08
    0.076888986 = product of:
      0.15377797 = sum of:
        0.15377797 = sum of:
          0.11121 = weight(_text_:daten in 3502) [ClassicSimilarity], result of:
            0.11121 = score(doc=3502,freq=4.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.44620997 = fieldWeight in 3502, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
          0.042567965 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
            0.042567965 = score(doc=3502,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 3502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
      0.5 = coord(1/2)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  11. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.07
    0.06930721 = product of:
      0.13861442 = sum of:
        0.13861442 = product of:
          0.41584322 = sum of:
            0.41584322 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.41584322 = score(doc=1826,freq=2.0), product of:
                0.44394645 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.052364457 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  12. Curcio, R.: ¬Das virtuelle Reich : die Kolonialisierung der Phantasie und die soziale Kontrolle (2017) 0.06
    0.06407416 = product of:
      0.12814832 = sum of:
        0.12814832 = sum of:
          0.09267501 = weight(_text_:daten in 5306) [ClassicSimilarity], result of:
            0.09267501 = score(doc=5306,freq=4.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.37184164 = fieldWeight in 5306, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5306)
          0.035473306 = weight(_text_:22 in 5306) [ClassicSimilarity], result of:
            0.035473306 = score(doc=5306,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.19345059 = fieldWeight in 5306, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5306)
      0.5 = coord(1/2)
    
    Date
    18. 9.2018 12:57:22
    RSWK
    Personenbezogene Daten
    Subject
    Personenbezogene Daten
  13. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.06
    0.060602657 = product of:
      0.121205315 = sum of:
        0.121205315 = sum of:
          0.07863735 = weight(_text_:daten in 4011) [ClassicSimilarity], result of:
            0.07863735 = score(doc=4011,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.31551808 = fieldWeight in 4011, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=4011)
          0.042567965 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
            0.042567965 = score(doc=4011,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 4011, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4011)
      0.5 = coord(1/2)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  14. Küster, M.W.; Ludwig, C.; Al-Hajj, Y.; Aschenbrenner, A.: TextGrid: eScholarship und der Fortschritt der Wissenschaft durch vernetzte Angebote (2010) 0.06
    0.060602657 = product of:
      0.121205315 = sum of:
        0.121205315 = sum of:
          0.07863735 = weight(_text_:daten in 3736) [ClassicSimilarity], result of:
            0.07863735 = score(doc=3736,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.31551808 = fieldWeight in 3736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3736)
          0.042567965 = weight(_text_:22 in 3736) [ClassicSimilarity], result of:
            0.042567965 = score(doc=3736,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.23214069 = fieldWeight in 3736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3736)
      0.5 = coord(1/2)
    
    Abstract
    Das TextGrid-Konsortium vereint zehn über ganz Deutschland verteilte Institutionen aus dem wissenschaftlichen und kommerziellen Umfeld, um eine modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung aufzubauen. In einem Grid führt es verschiedene Datenstrukturen aus unterschiedlichen Projekten in einem virtuellen Korpus zusammen, das als ganzes oder in ausgewählten Teilen durchsucht und analysiert werden kann. TextGrid verändert den Arbeitsalltag des geisteswissenschaftlichen Forschers, weg vom Bild des oftmals allein arbeitenden Textwissenschaftlers hin zur Arbeit im Team. Das zugrundeliegende Grid ist auch auf Informatikseite ein Beispiel für ein hochgradig vernetztes System, das Daten und Werkzeuge ganz unterschiedlicher Provenienz und Technologie integriert.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  15. Taglinger, H.: ¬Die Sache mit den Daten (2018) 0.06
    0.056181237 = product of:
      0.112362474 = sum of:
        0.112362474 = product of:
          0.22472495 = sum of:
            0.22472495 = weight(_text_:daten in 4580) [ClassicSimilarity], result of:
              0.22472495 = score(doc=4580,freq=12.0), product of:
                0.24923246 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.052364457 = queryNorm
                0.9016681 = fieldWeight in 4580, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4580)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Apple bietet auf Antrag den Download der eigenen Daten an. Was man bekommt? Daten Oha, ich kann meine Daten anfordern. Bei Apple. Anfordern, das klingt gut, mache ich, dachte ich mir. Also ging ich vor eineinhalb Wochen auf diese Seite und forderte meine Daten an. Seit die DSVGO in den heimischen Landen wütet und Unternehmen überall nervös versuchen zu zeigen, dass sie sich wirklich, aber WIRKLICH an die Vorschriften halten, kann man neben gefühlten drei Milliarden an Emails samt Bestätigungslink eben auch die ganz Großen wie Apple in seiner Inbox finden. Besonders transparent will man sein.
    Source
    https://www.heise.de/tp/news/Die-Sache-mit-den-Daten-4061522.html?view=print
  16. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.05
    0.054368723 = product of:
      0.10873745 = sum of:
        0.10873745 = sum of:
          0.07863735 = weight(_text_:daten in 3080) [ClassicSimilarity], result of:
            0.07863735 = score(doc=3080,freq=8.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.31551808 = fieldWeight in 3080, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
          0.0301001 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
            0.0301001 = score(doc=3080,freq=4.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.16414827 = fieldWeight in 3080, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
      0.5 = coord(1/2)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
  17. Razum, M.; Schwichtenberg, F.: Metadatenkonzept für dynamische Daten : BW-eLabs Report (2012) 0.05
    0.052424897 = product of:
      0.10484979 = sum of:
        0.10484979 = product of:
          0.20969959 = sum of:
            0.20969959 = weight(_text_:daten in 994) [ClassicSimilarity], result of:
              0.20969959 = score(doc=994,freq=32.0), product of:
                0.24923246 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.052364457 = queryNorm
                0.84138155 = fieldWeight in 994, product of:
                  5.656854 = tf(freq=32.0), with freq of:
                    32.0 = termFreq=32.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=994)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    1.1. Dynamische Daten - Unter "dynamischen Daten" verstehen wir im Projekt BW-eLabs die im Rahmen von (virtuellen bzw. remote durchgeführten) Experimenten anfallenden Forschungsdaten, meist in Form von Messwerten. Im Falle des FMF (Freiburger Materialforschungsinstitut) sind dies überwiegend Spektren, im Falle des ITO (Institut für technische Optik an der Universität Stuttgart) Hologramme. Ein wichtiger Aspekt von Forschungsdaten, und damit auch für die dynamischen Daten, ist die Verknüpfung der Messwerte mit Kalibrierungs- und Konfigurationsdaten. Erst in der Gesamtbeschau lassen sich dynamische Daten so sinnvoll interpretieren. Weiterhin - und das ist eben der dynamische Gesichtspunkt bei dieser Art von Daten - verändert sich im Verlauf des wissenschaftlichen Arbeitsprozesses die Sicht auf die Daten. Die Rohdaten, die das System direkt im Labor am Gerät erfasst, lassen sich in folgenden Analyseschritten visualisieren und/oder aggregieren. Diese Schritte erzeugen neue Versionen der Daten bzw. abgeleitete Datenobjekte, die wiederum mit den Ausgangsdaten verknüpft werden. Ein Ziel von BW-eLabs ist es, diese dynamischen Daten nicht nur den Forschern innerhalb eines Projekts (also z.B. dem lokal arbeitenden Wissenschaftler und seiner entfernt arbeitenden Kollegin) verfügbar zu machen, sondern ausgewählte Datenobjekte mit einem Persistent Identifier zu versehen, um diese anschließend publizieren und damit zitierbar machen zu können.
    1.2. Metadaten - Metadaten sind ein entscheidender Faktor für die Archivierung, Publikation und Nachnutzung von Forschungsdaten. Nur hinreichend beschriebene Daten können durch Wissenschaftler verstanden und korrekt eingeordnet werden. Erst derartig beschriebene Daten lassen sich sinnvoll veröffentlichen und zitieren. Zusätzlich erlauben geeignete Metadaten das Browsen und Suchen in den Forschungsdaten. Deshalb ist die Definition und Verwendung geeigneter Metadaten-Modelle, die die Daten auf dem richtigen Level beschreiben, von außerordentlicher Bedeutung. Allerdings sind Metadaten, gerade im Bereich von Forschungsdaten, außerordentlich fach- und anwendungsspezifisch. Es gibt bisher nur wenige übergreifende Standards auf diesem Gebiet. Auch die in BW-eLabs vertretenen Disziplinen Materialwissenschaften und Technische Optik bauen auf sehr unterschiedlichen fachlichen Metadatenprofilen auf. Beide verwenden aber ein sehr vergleichbares Vorgehen bei der Beschreibung der kontextuellen Information, also dem Umfeld, in dem Versuchsdaten im Labor entstehen. Dieser Report beschreibt ein für das Projekt BW-eLabs geeignetes Metadaten-Modell für diese kontextuellen Informationen.
    1.3. Beziehung zur Beschreibung statischer Daten - Neben dynamischen Daten arbeitet das Projekt BW-eLabs auch mit sogenannten "statischen Daten", unter denen vor allem Publikationen zu verstehen sind. Auch hierfür sind Metadaten vorzusehen. Das dafür notwendige Konzept beschreibt ein eigener Report. Publikationen enthalten heute vielfach bereits Verweise auf Datenobjekte bzw. Messwerte. Momentan oftmals noch als sogenannte "supporting information" von Verlagen an die Publikation angehängt, ist es ein Ziel von BW-eLabs (und anderen Projekten), die dabei auftretenden Beschränkungen hinsichtlich Umfang und Nachnutzbarkeit zu umgehen und die Daten nur noch über Verweise (z.B. anhand von Persistent Identifiern) aus der Publikation heraus zu verknüpfen. Damit werden die Datenobjekte eigenständige Entitäten, die einen eigenen Publikationsverlauf nehmen.
  18. Hümmer, C.: TELOTA - Aspekte eines Wissensportals für geisteswissenschaftliche Forschung (2010) 0.05
    0.05050221 = product of:
      0.10100442 = sum of:
        0.10100442 = sum of:
          0.06553112 = weight(_text_:daten in 3745) [ClassicSimilarity], result of:
            0.06553112 = score(doc=3745,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.26293173 = fieldWeight in 3745, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3745)
          0.035473306 = weight(_text_:22 in 3745) [ClassicSimilarity], result of:
            0.035473306 = score(doc=3745,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.19345059 = fieldWeight in 3745, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3745)
      0.5 = coord(1/2)
    
    Abstract
    TELOTA (The Electronic Life of the Academy) ist eine Initiative der Berlin-Brandenburgischen Akademie der Wissenschaften, die es sich zur Aufgabe gemacht hat, in verstärktem Maße die Möglichkeiten und Chancen der Informationstechnologie für die Akademie und ihre Forschungsvorhaben zu explorieren und umzusetzen. TELOTA betreut die Akademievorhaben in Hinblick auf die Einführung von elektronischen Arbeits- und Publikationsstrategien und trifft deshalb auf sehr unterschiedliche Bedürfnisse und Ausgangssituationen. Nach einer ersten Projektphase, in der vor allem die Breite der Möglichkeiten des elektronischen Mediums exploriert wurden, widmete sich TELOTA zwischen März 2007 und Dezember 2008 der Entwicklung von projektübergreifenden Lösungen für die Bereiche Digitale Edition, Personendatenbanken und elektronische Wörterbücher. Für die Zukunft gibt es erste Ansätze, die elektronischen Ressourcen der Akademie zu einem vernetzten Wissensportal für geisteswissenschaftliche Grundlagenforschung auszubauen. Aufgaben und Ziele von TELOTA Der vorliegende Artikel gibt einen Überblick über die Arbeit der TELOTA-Initiative der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW). Auf Initiative der "Arbeitsgruppe elektronisches Publizieren" ins Leben gerufen, widmet sich TELOTA seit 2002 der Aufgabe, moderne Informationstechnologie bewusst, geplant und nachhaltig für die Belange der BBAW nutzbar zu machen. Diese Aufgabe versteht sich sowohl im Sinne eines verstärkten Einsatzes zur Unterstützung des Forschungsprozesses als auch im Sinne einer kostenfreien Online-Präsentation von Daten und Ergebnissen für die interessierte Öffentlichkeit. Darüber hinaus soll die verstärkte "Digitalisierung" der Akademievorhaben auch den wissenschaftlichen Austausch und die Kommunikation unter Fachwissenschaftlern erleichtern und fördern (vgl. den Bericht der Arbeitsgruppe "Elektronisches Publizieren" an den Vorstand 2001). Das Akronym TELOTA steht - zusammenfassend für diese Aufgabengebiete - für "The Electronic Life of the Academy".
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  19. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.05050221 = product of:
      0.10100442 = sum of:
        0.10100442 = sum of:
          0.06553112 = weight(_text_:daten in 4793) [ClassicSimilarity], result of:
            0.06553112 = score(doc=4793,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.26293173 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
          0.035473306 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
            0.035473306 = score(doc=4793,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.19345059 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
      0.5 = coord(1/2)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  20. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.05
    0.05050221 = product of:
      0.10100442 = sum of:
        0.10100442 = sum of:
          0.06553112 = weight(_text_:daten in 595) [ClassicSimilarity], result of:
            0.06553112 = score(doc=595,freq=2.0), product of:
              0.24923246 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.052364457 = queryNorm
              0.26293173 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
          0.035473306 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
            0.035473306 = score(doc=595,freq=2.0), product of:
              0.18337141 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052364457 = queryNorm
              0.19345059 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22

Languages

  • e 485
  • d 379
  • a 2
  • hu 1
  • More… Less…

Types

  • a 722
  • el 113
  • m 75
  • s 28
  • x 25
  • r 14
  • b 5
  • p 2
  • i 1
  • n 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications