Search (722 results, page 1 of 37)

  • × year_i:[2010 TO 2020}
  • × type_ss:"a"
  1. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.10
    0.097833075 = product of:
      0.19566615 = sum of:
        0.19566615 = sum of:
          0.15398781 = weight(_text_:daten in 1736) [ClassicSimilarity], result of:
            0.15398781 = score(doc=1736,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.63103616 = fieldWeight in 1736, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
          0.041678336 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
            0.041678336 = score(doc=1736,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 1736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1736)
      0.5 = coord(1/2)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
  2. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.09
    0.08751786 = product of:
      0.17503572 = sum of:
        0.17503572 = sum of:
          0.13335738 = weight(_text_:daten in 164) [ClassicSimilarity], result of:
            0.13335738 = score(doc=164,freq=6.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.5464934 = fieldWeight in 164, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
          0.041678336 = weight(_text_:22 in 164) [ClassicSimilarity], result of:
            0.041678336 = score(doc=164,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 164, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=164)
      0.5 = coord(1/2)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  3. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 4427) [ClassicSimilarity], result of:
            0.10265854 = score(doc=4427,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.055571117 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4427,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  4. Zedlitz, J.: Biographische Normdaten : ein Überblick (2017) 0.08
    0.07528208 = product of:
      0.15056416 = sum of:
        0.15056416 = sum of:
          0.10888583 = weight(_text_:daten in 3502) [ClassicSimilarity], result of:
            0.10888583 = score(doc=3502,freq=4.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.44620997 = fieldWeight in 3502, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
          0.041678336 = weight(_text_:22 in 3502) [ClassicSimilarity], result of:
            0.041678336 = score(doc=3502,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 3502, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3502)
      0.5 = coord(1/2)
    
    Abstract
    Um das Leben und Werk historischer Personen und historische Ereignisse verstehen zu können, benötigen Wissenschaftler als primäre Quelle historische Dokumente. Das Entdecken und Auffinden dieser Dokumente in Archiven ist seit jeher eine aufwändige Aufgabe. In vielen Fällen ist sie mit einer großen Portion Glück verbunden, die richtige Archivalie im Bestand ausfindig zu machen. Mit Katalogen und anderen Findmitteln helfen Archive Forschern bereits beim Aufspüren dieser Quellen. Um Material zu einer bestimmten Person auffindbar zu machen, werden in der Regel biographische Normdaten bereitgehalten, die als Einstiegspunkt in eine Suche dienen. Der Begriff "Normdaten" kann unter zwei Aspekten verstanden werden: 1. Vergabe und Verwendung einer eindeutigen Kennung für eine Person, um sie in verschiedenen Systemen zu finden und 2. als eine normierte Schreibweise, um biographische Daten zu einer Person so aufzuschreiben, dass die Daten interoperabel, also auch außerhalb des ursprünglichen Systems (nach-)genutzt werden können.
    Source
    Archivar. 70(2017) H.1, S.22-25
  5. Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010) 0.06
    0.05933612 = product of:
      0.11867224 = sum of:
        0.11867224 = sum of:
          0.076993905 = weight(_text_:daten in 4011) [ClassicSimilarity], result of:
            0.076993905 = score(doc=4011,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 4011, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=4011)
          0.041678336 = weight(_text_:22 in 4011) [ClassicSimilarity], result of:
            0.041678336 = score(doc=4011,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 4011, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=4011)
      0.5 = coord(1/2)
    
    Abstract
    Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  6. Küster, M.W.; Ludwig, C.; Al-Hajj, Y.; Aschenbrenner, A.: TextGrid: eScholarship und der Fortschritt der Wissenschaft durch vernetzte Angebote (2010) 0.06
    0.05933612 = product of:
      0.11867224 = sum of:
        0.11867224 = sum of:
          0.076993905 = weight(_text_:daten in 3736) [ClassicSimilarity], result of:
            0.076993905 = score(doc=3736,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 3736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.046875 = fieldNorm(doc=3736)
          0.041678336 = weight(_text_:22 in 3736) [ClassicSimilarity], result of:
            0.041678336 = score(doc=3736,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.23214069 = fieldWeight in 3736, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=3736)
      0.5 = coord(1/2)
    
    Abstract
    Das TextGrid-Konsortium vereint zehn über ganz Deutschland verteilte Institutionen aus dem wissenschaftlichen und kommerziellen Umfeld, um eine modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung aufzubauen. In einem Grid führt es verschiedene Datenstrukturen aus unterschiedlichen Projekten in einem virtuellen Korpus zusammen, das als ganzes oder in ausgewählten Teilen durchsucht und analysiert werden kann. TextGrid verändert den Arbeitsalltag des geisteswissenschaftlichen Forschers, weg vom Bild des oftmals allein arbeitenden Textwissenschaftlers hin zur Arbeit im Team. Das zugrundeliegende Grid ist auch auf Informatikseite ein Beispiel für ein hochgradig vernetztes System, das Daten und Werkzeuge ganz unterschiedlicher Provenienz und Technologie integriert.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  7. Taglinger, H.: ¬Die Sache mit den Daten (2018) 0.06
    0.055007108 = product of:
      0.110014215 = sum of:
        0.110014215 = product of:
          0.22002843 = sum of:
            0.22002843 = weight(_text_:daten in 4580) [ClassicSimilarity], result of:
              0.22002843 = score(doc=4580,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9016681 = fieldWeight in 4580, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4580)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Apple bietet auf Antrag den Download der eigenen Daten an. Was man bekommt? Daten Oha, ich kann meine Daten anfordern. Bei Apple. Anfordern, das klingt gut, mache ich, dachte ich mir. Also ging ich vor eineinhalb Wochen auf diese Seite und forderte meine Daten an. Seit die DSVGO in den heimischen Landen wütet und Unternehmen überall nervös versuchen zu zeigen, dass sie sich wirklich, aber WIRKLICH an die Vorschriften halten, kann man neben gefühlten drei Milliarden an Emails samt Bestätigungslink eben auch die ganz Großen wie Apple in seiner Inbox finden. Besonders transparent will man sein.
    Source
    https://www.heise.de/tp/news/Die-Sache-mit-den-Daten-4061522.html?view=print
  8. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.05
    0.053232472 = product of:
      0.106464945 = sum of:
        0.106464945 = sum of:
          0.076993905 = weight(_text_:daten in 3080) [ClassicSimilarity], result of:
            0.076993905 = score(doc=3080,freq=8.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.31551808 = fieldWeight in 3080, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
          0.029471038 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
            0.029471038 = score(doc=3080,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.16414827 = fieldWeight in 3080, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
      0.5 = coord(1/2)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
  9. Hümmer, C.: TELOTA - Aspekte eines Wissensportals für geisteswissenschaftliche Forschung (2010) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 3745) [ClassicSimilarity], result of:
            0.06416159 = score(doc=3745,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 3745, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3745)
          0.03473195 = weight(_text_:22 in 3745) [ClassicSimilarity], result of:
            0.03473195 = score(doc=3745,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 3745, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3745)
      0.5 = coord(1/2)
    
    Abstract
    TELOTA (The Electronic Life of the Academy) ist eine Initiative der Berlin-Brandenburgischen Akademie der Wissenschaften, die es sich zur Aufgabe gemacht hat, in verstärktem Maße die Möglichkeiten und Chancen der Informationstechnologie für die Akademie und ihre Forschungsvorhaben zu explorieren und umzusetzen. TELOTA betreut die Akademievorhaben in Hinblick auf die Einführung von elektronischen Arbeits- und Publikationsstrategien und trifft deshalb auf sehr unterschiedliche Bedürfnisse und Ausgangssituationen. Nach einer ersten Projektphase, in der vor allem die Breite der Möglichkeiten des elektronischen Mediums exploriert wurden, widmete sich TELOTA zwischen März 2007 und Dezember 2008 der Entwicklung von projektübergreifenden Lösungen für die Bereiche Digitale Edition, Personendatenbanken und elektronische Wörterbücher. Für die Zukunft gibt es erste Ansätze, die elektronischen Ressourcen der Akademie zu einem vernetzten Wissensportal für geisteswissenschaftliche Grundlagenforschung auszubauen. Aufgaben und Ziele von TELOTA Der vorliegende Artikel gibt einen Überblick über die Arbeit der TELOTA-Initiative der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW). Auf Initiative der "Arbeitsgruppe elektronisches Publizieren" ins Leben gerufen, widmet sich TELOTA seit 2002 der Aufgabe, moderne Informationstechnologie bewusst, geplant und nachhaltig für die Belange der BBAW nutzbar zu machen. Diese Aufgabe versteht sich sowohl im Sinne eines verstärkten Einsatzes zur Unterstützung des Forschungsprozesses als auch im Sinne einer kostenfreien Online-Präsentation von Daten und Ergebnissen für die interessierte Öffentlichkeit. Darüber hinaus soll die verstärkte "Digitalisierung" der Akademievorhaben auch den wissenschaftlichen Austausch und die Kommunikation unter Fachwissenschaftlern erleichtern und fördern (vgl. den Bericht der Arbeitsgruppe "Elektronisches Publizieren" an den Vorstand 2001). Das Akronym TELOTA steht - zusammenfassend für diese Aufgabengebiete - für "The Electronic Life of the Academy".
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  10. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 4793) [ClassicSimilarity], result of:
            0.06416159 = score(doc=4793,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
          0.03473195 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
            0.03473195 = score(doc=4793,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 4793, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4793)
      0.5 = coord(1/2)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  11. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 3780) [ClassicSimilarity], result of:
            0.06416159 = score(doc=3780,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.03473195 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.03473195 = score(doc=3780,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.5 = coord(1/2)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  12. Bünte, O.: Bundesdatenschutzbeauftragte bezweifelt Facebooks Datenschutzversprechen (2018) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 4180) [ClassicSimilarity], result of:
            0.06416159 = score(doc=4180,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
          0.03473195 = weight(_text_:22 in 4180) [ClassicSimilarity], result of:
            0.03473195 = score(doc=4180,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
      0.5 = coord(1/2)
    
    Content
    "Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. "Das Geschäftsprinzip von Facebook ist ja gerade, Daten zu generieren und sie gewinnbringend zu vermarkten. So gesehen würde ich jetzt nicht unbedingt behaupten wollen, dass ich ihm das per se glaube, aber er kann es ja auch unter Beweis stellen", sagte die CDU-Politikerin gegenüber der Deutschen Presse-Agentur. "Aber die Zweifel bleiben insbesondere in Anbetracht eines solchen dimensional gigantischen Vorwurfs." Vgl.: http://www.heise.de/-4002008.
    Date
    23. 3.2018 13:41:22
  13. Petritsch, B.: Metadata for research data in practice (2017) 0.05
    0.045369096 = product of:
      0.09073819 = sum of:
        0.09073819 = product of:
          0.18147638 = sum of:
            0.18147638 = weight(_text_:daten in 3913) [ClassicSimilarity], result of:
              0.18147638 = score(doc=3913,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7436833 = fieldWeight in 3913, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3913)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Welche Daten über Daten brauchen wir? Die Beschreibung des Prozesses diese Frage für das institutionelle Datenrepositourium IST DataRep zu beantworten.
  14. Bannister, A.; Hulek, K.; Teschke, O.: ¬Das Zitationsverhalten in mathematischen Arbeiten : einige Anmerkungen (2017) 0.05
    0.045369096 = product of:
      0.09073819 = sum of:
        0.09073819 = product of:
          0.18147638 = sum of:
            0.18147638 = weight(_text_:daten in 4499) [ClassicSimilarity], result of:
              0.18147638 = score(doc=4499,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7436833 = fieldWeight in 4499, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Ziel dieses Beitrages ist es, einige Daten zum Zitationsverhalten mathematischer Arbeiten vorzustellen und zu diskutieren.
    Content
    Vgl. auch den Beitrag auf S.204-205: Vier bibliometrische Kennzahlen auf Grundlage von zbMATH-Daten. Vgl.: https://doi.org/10.1515/dmvm-2017-0064.
  15. Behrens-Neumann, R.: Aus der 58. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 21. und 22. April 2010 in Zürich (2010) 0.05
    0.045311995 = product of:
      0.09062399 = sum of:
        0.09062399 = sum of:
          0.05132927 = weight(_text_:daten in 4381) [ClassicSimilarity], result of:
            0.05132927 = score(doc=4381,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.21034539 = fieldWeight in 4381, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=4381)
          0.039294716 = weight(_text_:22 in 4381) [ClassicSimilarity], result of:
            0.039294716 = score(doc=4381,freq=4.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.21886435 = fieldWeight in 4381, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=4381)
      0.5 = coord(1/2)
    
    Abstract
    Am 21. und 22. April 2010 fand die 58. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung des Informationsverbund Deutschschweiz (IDS) in Zürich statt. Der folgende Bericht gibt einen Überblick über die gemeinsamen Aktivitäten der deutschsprachigen Verbünde aus Deutschland, Österreich und der Schweiz sowie eine Übersicht der aktuellen Arbeiten und Projekte der Mitglieder der AG Verbund mit Stand April 2010. Bericht u.a. über die Themenbereiche: Projekt Umstieg auf MARC21; GND; Normdateien und ONline-Schnittstelle; Kataloganreicherung; vascoda; Europeana.
    Content
    Melvil Die Pläne, zusammen mit OCLC, Melvil zu einem multilingualen DDC-Dienst auszubauen, sind aus Kapazitätsgründen bei OCLC und der DNB zunächst verschoben worden, werden aber weiter verfolgt. Bei Melvil sind weitere Arbeiten ausgeführt worden, um kleinere Bugs zu beseitigen und weitere Features zu implementieren. Anfang 2010 haben OCLC und die DNB einen neuen Lizenzvertrag für die deutschen DDC-Daten abgeschlossen, sodass Teile der deutschen DDC jetzt unter Creative Commons für die nicht-kommerzielle Nutzung freigegeben sind. Die Oberfläche von MelvilSearch wurde daraufhin geändert, sodass jetzt sowohl die Klassenbezeichung, als auch die DDC-Notation auf allen DDC-Ebenen sichtbar sind."
  16. Pires, C.M.; Guédon, J.-C.; Blatecky, A.: Scientific data infrastructures : transforming science, education, and society (2013) 0.04
    0.044913113 = product of:
      0.089826226 = sum of:
        0.089826226 = product of:
          0.17965245 = sum of:
            0.17965245 = weight(_text_:daten in 1843) [ClassicSimilarity], result of:
              0.17965245 = score(doc=1843,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.73620886 = fieldWeight in 1843, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1843)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Data is everywhere - praktisch bei allen wissenschaftlichen, staatlichen, gesellschaftlichen und wirtschaftlichen Aktivitäten entstehen sie. Die Daten werden erzeugt durch Befragungen, mobile und eingebettete Systeme, Sensoren, Beobachtungssysteme, wissenschaftliche Instrumente, Publikationen, Experimente, Simulationen, Auswertungen und Analysen. Bürger, Wissenschaftler, Forschende und Lehrende kommunizieren durch den Austausch von Daten, Software, Veröffentlichungen, Berichte, Simulationen und Visualisierungen. Darüber hinaus führen die zunehmende Nutzung der visuellen Kommunikation für Unterhaltung und zwischenmenschlichen Beziehungen sowie die rasche Zunahme der sozialen Netzwerke zu riesigen Datenmengen. Daten von Observatorien, Experimenten und Umweltüberwachung sowie aus der Genforschung und dem Gesundheitswesen generieren eine Größenordnung von Daten alle zwei Jahre, die weit über das Mooresche Gesetz hinausgeht - und dabei ist noch kein Ende in Sicht. Wissenschaftliche Publikationen sind Datengrundlage für die weitere wissenschaftliche Arbeit und Publikationen.
  17. Gross, D.: Maschinelle Bilderkennung mit Big Data und Deep Learning (2017) 0.04
    0.044452455 = product of:
      0.08890491 = sum of:
        0.08890491 = product of:
          0.17780982 = sum of:
            0.17780982 = weight(_text_:daten in 3726) [ClassicSimilarity], result of:
              0.17780982 = score(doc=3726,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.72865784 = fieldWeight in 3726, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3726)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Arbeit mit unstrukturierten Daten dient gerne als Paradebeispiel für Big Data, weil die technologischen Möglichkeiten das Speichern und Verarbeiten großer Datenmengen erlauben und die Mehrheit dieser Daten unstrukturiert ist. Allerdings ist im Zusammenhang mit unstrukturierten Daten meist von der Analyse und der Extraktion von Informationen aus Texten die Rede. Viel weniger hingegen wird das Thema der Bildanalyse thematisiert. Diese gilt aber nach wie vor als eine Königdisziplin der modernen Computerwissenschaft.
  18. Neumann, K.: Geodaten - von der Verantwortung des Dealers (2010) 0.04
    0.043040905 = product of:
      0.08608181 = sum of:
        0.08608181 = product of:
          0.17216362 = sum of:
            0.17216362 = weight(_text_:daten in 4267) [ClassicSimilarity], result of:
              0.17216362 = score(doc=4267,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7055199 = fieldWeight in 4267, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4267)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit der Einführung einer europarechtlich flankierten Geodateninfrastruktur gewinnen geobasierte Daten und Anwendungen zunehmend an Bedeutung. Auch die öffentliche Verwaltung will hieran partizipieren und ihre raumbezogenen Daten der Öffentlichkeit zur Verfügung stellen. Damit wird eine datenschutzrechtlich bisher vor allem am Beispiel des Google-Dienstes Street-View diskutierte Frage akut, ob oder wann es sich bei solchen Daten um personenbezogene Daten nach dem Datenschutzrecht handelt. Der Beitrag tritt dem Vorschlag entgegen, solche Daten aus dem Anwendungsbereich des Datenschutzrechtes herauszuinterpretieren, sondern fordert den Gesetzgeber auf eine bereichsspezifische Befugnisnorm mit korrespondierenden Schutzregelungen zu erlassen. Hierfür werden Rahmenbedingungen skizziert und eine Formulierung am Beispiel des Gesetzgebungsverfahrens in Mecklenburg-Vorpommern vorgeschlagen.
  19. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.04
    0.043040905 = product of:
      0.08608181 = sum of:
        0.08608181 = product of:
          0.17216362 = sum of:
            0.17216362 = weight(_text_:daten in 3732) [ClassicSimilarity], result of:
              0.17216362 = score(doc=3732,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7055199 = fieldWeight in 3732, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  20. Dreier, V.: Fotografien als empirische Daten (2013) 0.04
    0.042438906 = product of:
      0.08487781 = sum of:
        0.08487781 = product of:
          0.16975562 = sum of:
            0.16975562 = weight(_text_:daten in 911) [ClassicSimilarity], result of:
              0.16975562 = score(doc=911,freq=14.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.695652 = fieldWeight in 911, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=911)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Fotografien werden in den deutschen Sozialwissenschaften vornehmlich als Objekte der Interpretation, Illustration, Exploration oder als mit Textlegenden versehene Dokumentationen sozialer Realität forschungspraktisch verwendet. Sehr selten werden Fotografien jedoch dezidiert als empirische Daten behandelt und in der empirischen Sozialforschung zur Generierung oder Überprüfung von Theorien eingesetzt. Dieser Umstand kann auf eine generelle Bilderfeindlichkeit wie bspw. in der deutschen Soziologie zurückgeführt werden oder auf die Annahme, class speziell Fotografien. zu vieldeutig und voraussetzungsgeladen sind, um ernsthaft als "empirische Daten" in. Betracht gezogen werden zu können. Diese Annahme ist jedoch ungerechtfertigt, wenn wir dazu kontrastierend die "konventionelle" Auffassung von empirischen Daten in der empirischen Sozialforschung einer wissenschaftstheoretischen Analyse unterziehen. Die Analysen zeigen, dass Fotografien, wenn sie Ergebnis eines kontrollierten und methodengeleiteten Konstruktionsprozesses sind, als empirische Daten bestimmt werden können. Sie besitzen die gleichen Merkmale wie "konventionelle" empirische Daten in der empirischen Sozialforschung, d.h. sie werden erst dann zu Informationen und Werkzeugen der Theoriegenerierung und -überprüfung, wenn wir sie mit Bedeutung versehen. Fotografien sind so, wie generell alle empirischen Daten, zunächst einmal potenziell ohne eine eigene, ihnen inhärente Bedeutung - jedoch nicht absolut, sondern theoriebeladen wie die wissenschaftliche Beobachtung selbst auch.

Languages

  • e 434
  • d 282
  • a 1
  • More… Less…

Types

  • el 72
  • b 4
  • More… Less…

Themes