Search (722 results, page 2 of 37)

  • × type_ss:"a"
  • × year_i:[2010 TO 2020}
  1. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.04
    0.04071525 = product of:
      0.0814305 = sum of:
        0.0814305 = product of:
          0.2442915 = sum of:
            0.2442915 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.2442915 = score(doc=400,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  2. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.04
    0.04071525 = product of:
      0.0814305 = sum of:
        0.0814305 = product of:
          0.2442915 = sum of:
            0.2442915 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.2442915 = score(doc=484,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  3. Jäger, L.: Von Big Data zu Big Brother (2018) 0.04
    0.039557412 = product of:
      0.079114825 = sum of:
        0.079114825 = sum of:
          0.05132927 = weight(_text_:daten in 5234) [ClassicSimilarity], result of:
            0.05132927 = score(doc=5234,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.21034539 = fieldWeight in 5234, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=5234)
          0.027785558 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
            0.027785558 = score(doc=5234,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 5234, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5234)
      0.5 = coord(1/2)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Date
    22. 1.2018 11:33:49
  4. Iglezakis, D.; Schembera, B.: Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement der Universität Stuttgart : Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING (2018) 0.04
    0.03929079 = product of:
      0.07858158 = sum of:
        0.07858158 = product of:
          0.15716316 = sum of:
            0.15716316 = weight(_text_:daten in 4488) [ClassicSimilarity], result of:
              0.15716316 = score(doc=4488,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6440486 = fieldWeight in 4488, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4488)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Forschungsdaten sind die Grundlage aller wissenschaftlichen Praxis und der Ausgangspunkt für alle daraus gewonnenen Erkenntnisse. Dieser Wert spiegelt sich allerdings oft nicht im Management von Forschungsdaten wider. Insbesondere in den Ingenieurwissenschaften gibt es Nachholbedarf, was das zweckgerichtete Forschungsdatenmanagement angeht, um die Daten nachnutzbar, nachvollziehbar und nachprüfbar zu machen. Die vorliegende Veröffentlichung fasst die Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING zusammen, welches das Ziel hat, gemeinsam mit Ingenieurwissenschaftlerinnen und Ingenieurwissenschaftler Konzepte für das Forschungsdatenmanagement in den Ingenieurwissenschaften bereitzustellen. Anhand von konkreten Anwendungsfällen aus der technischen Thermodynamik und der Aerodynamik wurden Problembereiche und Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement ermittelt. Spezifische Anforderungen ergeben sich dadurch, dass die Forschung zu einem nicht unerheblichen Teil auf Software und Code beruht, der zum Teil sehr große Mengen an Roh- und auch verarbeiteten Daten generiert und weiterverarbeitet. Ziel ist es, eine sinnvolle interne wie externe Nachnutzung von Forschungsdaten zu ermöglichen. Dafür werden fachspezifische Metadatenstandards benötigt, die den Entstehungsprozess der Daten und Codes dokumentieren können und so sowohl die Suchbarkeit als auch die Verständlichkeit der Daten fördern. Zudem fehlen klare fachspezifische Richtlinien, welche Daten für welchen Zeitraum ökonomisch sinnvoll abgelegt werden sollen. Für die Veröffentlichung der Daten werden Infrastrukturen benötigt, die sowohl mit großen Datenmengen wie auch mit Software und Code umgehen können und eine Qualitäts- wie auch Zugriffskontrolle ermöglichen.
  5. Becker, H.-G.: MODS2FRBRoo : Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen (2010) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 4265) [ClassicSimilarity], result of:
              0.1555836 = score(doc=4265,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 4265, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4265)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Es wird ein Verfahren vorgestellt, mit dem bereits existierende bibliografische Daten in die CIDOC CRM/FRBRoo-Umgebung übertragen werden können. Es handelt sich dabei um einen mehrstufigen XSLT-Prozess, der im MODS-Format vorliegende bibliografische Daten in ein FRBRoo-konformes RDF umwandelt. Dazu werden die unterschiedlichen Publikationstypen in FRBRoo identifiziert und modelliert. Für die Abbildung der einzelnen bibliografischen Kategorien aus dem verwendeten Austauschformat auf die FRBRoo-Klassen wird auf Konzepte von RDA zurückgegriffen.
  6. Eckert, K.: Linked Open Projects : Nachnutzung von Projektergebnissen als Linked Data (2010) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 4278) [ClassicSimilarity], result of:
              0.1555836 = score(doc=4278,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 4278, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4278)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In vielen wissenschaftlichen Projekten - nicht nur im Bibliotheksbereich - geht es um die Erzeugung von Daten, häufig mit Hilfe automatischer Verfahren. Die Nachnutzung dieser Daten gestaltet sich häufig schwierig. In diesem Artikel werden wissenschaftliche Projekte beschrieben, die an der Universitätsbibliothek Mannheim durchgeführt wurden und werden. Anhand einfacher Beispiele wird gezeigt, wie durch Linked Data die Daten, die in diesen Projekten generiert werden, leicht und flexibel nachgenutzt werden können.
  7. Schumann, N.; Watteler, O.: Forschungsdaten in den Sozialwissenschaften (2013) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 1151) [ClassicSimilarity], result of:
              0.1555836 = score(doc=1151,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 1151, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1151)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Sozialwissenschaften bestehen aus verschiedenen Fachdisziplinen, die sich mit gesellschaftlichen Fragestellungen befassen. Zur Untersuchung von sozialer Wirklichkeit werden Daten benötigt.Diesewerden in unterschiedlicherArt und Weise erhoben und in vielen Fällen für weitere Forschungsvorhaben zur Verfügung gestellt. Damit die Daten für andere von Nutzen sind, müssen sie entsprechend dokumentiert, aufbereitet und archiviert werden. Dies geschieht in Forschungsdatenzentren, Datenservicezentren ebenso wie in Datenarchiven. Bei sozialwissenschaftlichen Erhebungen werden regelmäßig Daten von Individuen erhoben, das bedeutet, dass der Datenschutz eine große Rolle spielt. Fragen bezüglich Datenmanagement und Langzeitarchivierung gewinnen auch in den Sozialwissenschaften zunehmend an Bedeutung.
  8. Buschmann, K.; Kasberger, S.; Kraker, P.; Mayer, K.; Reckling, F.; Rieck, K.; Vignoli, M.: Über die Grenzen der Offenheit in der Wissenschaft : Anspruch und Wirklichkeit bei der Bereitstellung und Nachnutzung von Forschungsdaten (2015) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 2081) [ClassicSimilarity], result of:
              0.1555836 = score(doc=2081,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 2081, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2081)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Offene Forschungsdaten tragen zum wissenschaftlichen Fortschritt bei. Sie erlauben es, alte Daten für neue Fragestellungen zu nutzen und Ergebnisse zu überprüfen. Es ist kaum verwunderlich, dass politische Entscheidungsträger, Forschungsförderer, Fachzeitschriften und Forschende selbst zunehmend die Bereitstellung und Nachnutzung von Daten fordern. Allerdings wird dies von Forschenden selbst kaum praktiziert. Wir versuchen die mangelnde Bereitschaft, Forschungsdaten bereitzustellen und nachzunutzen einzuordnen und kommen zu dem Schluss, dass es für Forschende kaum Anreize gibt, Daten zu teilen. Die Nachnutzung scheitert zudem häufig an mangelhafter Datendokumentation.
  9. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 3910) [ClassicSimilarity], result of:
              0.1555836 = score(doc=3910,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 3910, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3910)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
  10. Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 4264) [ClassicSimilarity], result of:
              0.15398781 = score(doc=4264,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 4264, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4264)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Wissensbasis bestehend aus bibliografischen Daten einerseits, vor allem aber aus den Normdaten als Linked Data zu veröffentlichen. Ziel der DNB ist es, mit der Publikation der Daten als Tripel eine direkte Nutzung der gesamten nationalbibliografischen Daten und der Normdaten durch die Semantic-WebCommunity zu ermöglichen und damit ganz neue Nutzungsgruppen einzubinden. Gleichzeitig soll aber auch das Tor für einen neuen Weg der kooperativen Datennutzung aufgestoßen werden. Langfristiges Ziel ist es, Bibliotheken und andere kulturelle Einrichtungen als ein verlässliches Rückgrat des Webs der Daten zu etablieren.
  11. Harbeck, M.; Imeri, S.; Sterzer, W.: Feldnotizen und Videomitschnitte : zum Forschungsdatenmanagement qualitativer Daten am Beispiel der ethnologischen Fächer (2018) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 4355) [ClassicSimilarity], result of:
              0.15398781 = score(doc=4355,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 4355, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4355)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sollen Daten aus qualitativer (Sozial-)Forschung dauerhaft archiviert und für die Nachnutzung zur Verfügung gestellt werden, dann entstehen erhebliche Probleme: Solche Daten sind kaum standardisiert und liegen in heterogenen Formaten vor, sie sind meist hoch sensibel und benötigen besondere Schutzmechanismen. Der Beitrag thematisiert das Forschungsdatenmanagement qualitativer Daten am Beispiel ethnografischer Forschung aus unterschiedlichen Perspektiven: Er bietet erstens Einblicke in die Positionen von Ethnologinnen und Ethnologen und skizziert fachspezifische Probleme und stellt zweitens vor, welche infrastrukturellen Lösungen für ähnlich gelagerte Schwierigkeiten bereits existieren. Grundlage sind Erhebungen, die im Rahmen des Fachinformationsdienstes Sozial- und Kulturanthropologie an der Universitätsbibliothek der Humboldt-Universität zu Berlin einerseits den aktuellen Stand des Umgangs mit Forschungsdaten und andererseits Bedingungen und Lösungen für die Überführung ethnografischer Materialien in digitale Langzeitarchive eruieren.
  12. Springer, M.: Von Daten zu Taten (2018) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 4521) [ClassicSimilarity], result of:
              0.15398781 = score(doc=4521,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 4521, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4521)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  13. Brehm, E.; Neumann, J.: Anforderungen an Open-Access-Publikation von Forschungsdaten : Empfehlungen für einen offenen Umgang mit Forschungsdaten (2018) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 4483) [ClassicSimilarity], result of:
              0.1451811 = score(doc=4483,freq=16.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 4483, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Publikation von Forschungsdaten wird vor allem im Rahmen der Forschungsförderung verstärkt eingefordert, um Forschungsergebnisse nachvollziehbar, reproduzierbar und nachnutzbar zu machen. Im Rahmen der Publikation der Daten ist zu berücksichtigen, dass nicht alle Daten gleichermaßen für die Nachnutzung wissenschaftlich relevant und interessant sind. Darüber hinaus werden im Verlauf des Forschungsprozesses eine Reihe von rechtlich relevanten Regelungen und Vereinbarungen mit unterschiedlichen Akteuren getroffen. In der Regel werden diese unabhängig voneinander vereinbart, wenig aufeinander abgestimmt und auch im Rahmen von Datenmanagementplänen so getroffen, dass Datenpublikationen mitunter verhindert bzw. erschwert werden können. Die Publikation von Forschungsdaten wird, wenn überhaupt, erst am Ende des Forschungsprozesses in Betracht gezogen. Dann ist die Prüfung der Rechtslage an den Daten, die Auswahl und die Aufbereitung der Daten zwecks Publikation jedoch mit erheblichem Aufwand verbunden und zum Teil gar nicht mehr möglich. Im Rahmen dieses Artikels stellen wir vor, im Hinblick auf welche Aspekte die Daten für eine Publikation auszuwählen sind und wann die Rechtslage an den Daten geprüft werden muss, um eine offene Datenpublikation zu ermöglichen. Dabei werden sowohl die Rollen aller beteiligten Akteure wie Kooperationspartner, Forschungsförderer und Repositoriumsbetreiber als auch der jeweilige rechtliche Rahmen der Forschungsdaten betrachtet. Zur Erleichterung der Analyse der Rechtslage an den Daten wird ein Ansatz für die Bildung von Fallgruppen vorgestellt, der im Rahmen von aktuellen Projekten und Entwicklungen im Forschungsdatenmanagement verfeinert werden muss. Das fallgruppenorientierte Vorgehen ist eine praktikable Hilfestellung für die Beratung von Forschenden zum Forschungsdatenmanagement in der Praxis. Datenmanagementpläne und andere im Forschungsprozess geschlossene Vereinbarungen können im Hinblick auf die Nachnutzung von Forschungsdaten gestaltet werden. Bereits im Rahmen von Schulungen und Beratungsgesprächen können geeignete Lizenzempfehlungen für die Open-Access-Publikation von Forschungsdaten gegeben werden. Ziel ist, möglichst viele publikationsrelevante Daten im Sinne der FAIR Principles1 Open Access publizieren zu können und unnötige Beschränkungen zu vermeiden.
  14. Hofer, C.: "Eine Schallplatte ist (k)ein (Papier-)Printmedium" : Archivierung und Dokumentation historischer Tonträger (2015) 0.04
    0.03586742 = product of:
      0.07173484 = sum of:
        0.07173484 = product of:
          0.14346968 = sum of:
            0.14346968 = weight(_text_:daten in 1835) [ClassicSimilarity], result of:
              0.14346968 = score(doc=1835,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.58793324 = fieldWeight in 1835, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1835)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Gesellschaft für Historische Tonträger (GHT) ist im November 2002 als eingetragener Verein gegründet worden, der einerseits aus der Arbeitsgemeinschaft Diskografie, die sich aus Vertretern der Österreichischen Mediathek, dem Wiener Phonogrammarchiv und dem Wiener Phonomuseum und privaten Diskografen gebildet hatte, und andererseits aus den MitarbeiterInnen eines aus Mitteln der Europäischen Union geförderten Projektes, entstanden ist. Ziel dieser internationalen Gesellschaft ist es, Tondokumente aus der frühen Tonaufnahmeepoche (Daten und Inhalte) zu erhalten, die Erkenntnisse synergetisch unter wissenschaftlichen Standards zu dokumentieren, zu archivieren und zugänglich zu machen. Grundsätzlich auch das allgemeine Bewusstsein für dieses Thema zu heben. Schallplatten sind, auch verständlich aus der Eigenheit des Mediums, das Ende des 19.Jahrhunderts erfunden wurde, unter speziellen Voraussetzungen zu dokumentieren und zu archivieren. Nach Übernahme privater Archive von Schellackplatten und Wachszylindern (insgesamt etwa 30 000 Daten deren bedeutendste die Sammlung Alfred Seiser ist) wurden diese Schallplatten- Daten mit einem dafür geeigneten Archivierungssystem, das im Rahmen eines internationalen Projektes entwickelt wurde, digitalisiert. Label und Spiegel einer Schellackplatte geben uns Informationen, die weit über den eigentlichen Inhalt der Platte hinausgehen. Durch den Aufbau eines Netzwerkes von Schellackplatten-Sammlern und Kooperation in verschiedenen internationalen Projekten (seit 2008 "The Lindström Project", seit 2014 BEKA-Reise um die Welt), kann auf das Know-how von mehr als 200000 Daten zurückgegriffen werden. Die Kooperation mit dismarc - EUROPEANA seit 2009 und dem Projekt "Archiv der Stimmen" der SLUB Dresden sichern die gewonnenen Daten und bieten offenen Zugang für die interessierte Öffentlichkeit.
  15. Jörs, B.: ¬Die Informationswissenschaft ist tot, es lebe die Datenwissenschaft (2019) 0.03
    0.033951122 = product of:
      0.067902245 = sum of:
        0.067902245 = product of:
          0.13580449 = sum of:
            0.13580449 = weight(_text_:daten in 5879) [ClassicSimilarity], result of:
              0.13580449 = score(doc=5879,freq=14.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5565216 = fieldWeight in 5879, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5879)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Haben die "Daten" bzw. die "Datenwissenschaft" (Data Science) die "Information" bzw. die Informationswissenschaft obsolet gemacht? Hat die "Data Science" mit ihren KI-gestützten Instrumenten die ökonomische und technische Herrschaft über die "Daten" und damit auch über die "Informationen" und das "Wissen" übernommen? Die meist in der Informatik/Mathematik beheimatete "Data Science" hat die wissenschaftliche Führungsrolle übernommen, "Daten" in "Informationen" und "Wissen" zu transferieren." "Der Wandel von analoger zu digitaler Informationsverarbeitung hat die Informationswissenschaft im Grunde obsolet gemacht. Heute steht die Befassung mit der Kategorie "Daten" und deren kausaler Zusammenhang mit der "Wissens"-Generierung (Erkennung von Mustern und Zusammenhängen, Prognosefähigkeit usw.) und neuronalen Verarbeitung und Speicherung im Zentrum der Forschung." "Wäre die Wissenstreppe nach North auch für die Informationswissenschaft gültig, würde sie erkennen, dass die Befassung mit "Daten" und die durch Vorwissen ermöglichte Interpretation von "Daten" erst die Voraussetzungen schaffen, "Informationen" als "kontextualisierte Daten" zu verstehen, um "Informationen" strukturieren, darstellen, erzeugen und suchen zu können."
  16. Borst, T.: Repositorien auf ihrem Weg in das Semantic Web : semantisch hergeleitete Interoperabilität als Zielstellung für künftige Repository-Entwicklungen (2014) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 1555) [ClassicSimilarity], result of:
              0.13335738 = score(doc=1555,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 1555, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1555)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Repositorien zählen mittlerweile zu den Standardanwendungen und -infrastrukturkomponenten im Bereich digitaler Bibliotheken und zielen mit ihrer durchgängigen Unterstützung des OAI-Protokolls seit jeher auf Interoperabilität, Austausch und Wiederverwendung ihrer Daten. In dem vorliegenden Artikel wird erläutert, warum das Protokoll in seiner bisherigen Form hierfür allerdings keine ausreichende Grundlage bietet. Demgegenüber bietet der Einsatz von Prinzipien und Techniken des Semantic Web die Aussicht, die Daten von Repositorien auf der Einzelebene nicht nur selbst besser wiederverwendbar und interoperabel mit anderen Repositorien zu publizieren, sondern durch die konsequente Verwendung von - teilweise bereits als Linked Open Data (LOD) vorliegenden - externen Daten in eine LOD-basierte Dateninfrastruktur zu integrieren. Vor diesem Hintergrund wird beschrieben, wie im Rahmen einer experimentellen Entwicklung die Metadaten eines großen Repositoriums für wirtschaftswissenschaftliche Literatur in ein Linked Dataset konvertiert wurden, und welche Folgearbeiten sich hieraus ergeben.
  17. Wetzel, D.: Bücher, Spielzeug, Daten, Krieg : Die globalen Software- und Internetriesen drängen in das Geschäft mit »Sicherheit«. (2019) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 3955) [ClassicSimilarity], result of:
              0.13335738 = score(doc=3955,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 3955, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3955)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Menschen in Deutschland ist Amazon vor allem bekannt als Onlinehändler, der ihnen fast alles nach Hause liefert: Bücher und Küchengeräte, Musik, Spielzeug und Möbel. Doch ist der USTechnologiekonzern mehr als ein riesiges Versandhaus - er ist auch ein gigantischer Datenspeicher. Diese Speicher nutzen inzwischen auch die Polizei, die Geheimdienste - und bald vielleicht auch das US-Militär. Zwischen den großen Cloud-Anbietern ist ein Kampf um einen Großauftrag entbrannt, mit dem das Pentagon seine weltweite Kriegsführung optimieren will. Amazon hat gute Chancen. Die »Neue Osnabrücker Zeitung« hatte Anfang März unter Berufung auf Behördenangaben berichtet, dass Amazons Tochterunternehmen Amazon Web Services die Bodycam-Aufnahmen der deutschen Bundespolizei auf ihren Cloudservern speichert. Damit ist die Bundespolizei nicht allein. Die CIA schloss schon 2013 einen Vertrag über etwa eine halbe Milliarde Dollar mit Amazon ab. Seitdem werden Daten des US-Geheimdienstes in der Cloud von Amazon gespeichert.
    Source
    Neues Deutschland. 2019, 06.04.2109, S.18 [https://www.neues-deutschland.de/artikel/1116173.amazon-buecher-spielzeug-daten-krieg.html]
  18. Perry, A.; Recker, J.: Sozialwissenschaftliche Forschungsdaten langfristig sichern und zugänglich machen : Herausforderungen und Lösungsansätze (2018) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 4353) [ClassicSimilarity], result of:
              0.13335738 = score(doc=4353,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 4353, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4353)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sozialwissenschaftlerinnen und -wissenschaftler sind gemäß der guten wissenschaftlichen Praxis dazu angehalten, den Forschungsprozess möglichst transparent zu halten, ihre Forschungsergebnisse reproduzierbar zu machen und im Sinne von "Open Science" erhobene Daten für die Nachnutzung zur Verfügung zu stellen. Dies ist allerdings mit einigen Hürden verbunden. So müssen nachnutzbare Daten so dokumentiert werden, dass sie für Dritte auffindbar und verständlich sind. Gleichzeitig müssen personenbezogene Daten der Teilnehmenden ausreichend geschützt werden. Forschende sind hier auf Unterstützung angewiesen, um diesen Ansprüchen an die empirische Forschung gerecht zu werden. Dieser Artikel geht zunächst auf die Hürden bei der Bereitstellung von sozialwissenschaftlichen Forschungsdaten ein und stellt dann Dienstleistungen des GESIS Datenarchivs für Sozialwissenschaften vor, die Forschenden helfen, diese Hürden zu meistern.
  19. Loonus, Y.: Einsatzbereiche der KI und ihre Relevanz für Information Professionals (2017) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 5668) [ClassicSimilarity], result of:
              0.13335738 = score(doc=5668,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 5668, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5668)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Es liegt in der Natur des Menschen, Erfahrungen und Ideen in Wort und Schrift mit anderen teilen zu wollen. So produzieren wir jeden Tag gigantische Mengen an Texten, die in digitaler Form geteilt und abgelegt werden. The Radicati Group schätzt, dass 2017 täglich 269 Milliarden E-Mails versendet und empfangen werden. Hinzu kommen größtenteils unstrukturierte Daten wie Soziale Medien, Presse, Websites und firmeninterne Systeme, beispielsweise in Form von CRM-Software oder PDF-Dokumenten. Der weltweite Bestand an unstrukturierten Daten wächst so rasant, dass es kaum möglich ist, seinen Umfang zu quantifizieren. Der Versuch, eine belastbare Zahl zu recherchieren, führt unweigerlich zu diversen Artikeln, die den Anteil unstrukturierter Texte am gesamten Datenbestand auf 80% schätzen. Auch wenn nicht mehr einwandfrei nachvollziehbar ist, woher diese Zahl stammt, kann bei kritischer Reflexion unseres Tagesablaufs kaum bezweifelt werden, dass diese Daten von großer wirtschaftlicher Relevanz sind.
  20. Danowski, P.; Goldfarb, D.; Schaffner, V.; Seidler, W.: Linked (Open) Data - Bibliographische Daten im Semantic Web : Bericht der AG Linked Data an die Verbundvollversammlung (16. Mai 2013) (2013) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 814) [ClassicSimilarity], result of:
              0.12832318 = score(doc=814,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 814, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=814)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    

Languages

  • e 434
  • d 282
  • a 1
  • More… Less…

Types

  • el 72
  • b 4
  • More… Less…

Themes