Search (125 results, page 1 of 7)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.08
    0.079114825 = product of:
      0.15822965 = sum of:
        0.15822965 = sum of:
          0.10265854 = weight(_text_:daten in 4427) [ClassicSimilarity], result of:
            0.10265854 = score(doc=4427,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.42069077 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
          0.055571117 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
            0.055571117 = score(doc=4427,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.30952093 = fieldWeight in 4427, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4427)
      0.5 = coord(1/2)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  2. Hahn, S.: DarkBERT ist mit Daten aus dem Darknet trainiert : ChatGPTs dunkler Bruder? (2023) 0.06
    0.05556557 = product of:
      0.11113114 = sum of:
        0.11113114 = product of:
          0.22226228 = sum of:
            0.22226228 = weight(_text_:daten in 979) [ClassicSimilarity], result of:
              0.22226228 = score(doc=979,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9108223 = fieldWeight in 979, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=979)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Forscher haben ein KI-Modell entwickelt, das mit Daten aus dem Darknet trainiert ist - DarkBERTs Quelle sind Hacker, Cyberkriminelle, politisch Verfolgte.
    Source
    https://www.heise.de/news/DarkBERT-ist-mit-Daten-aus-dem-Darknet-trainiert-ChatGPTs-dunkler-Bruder-9060809.html?view=print
  3. Taglinger, H.: ¬Die Sache mit den Daten (2018) 0.06
    0.055007108 = product of:
      0.110014215 = sum of:
        0.110014215 = product of:
          0.22002843 = sum of:
            0.22002843 = weight(_text_:daten in 4580) [ClassicSimilarity], result of:
              0.22002843 = score(doc=4580,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9016681 = fieldWeight in 4580, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4580)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Apple bietet auf Antrag den Download der eigenen Daten an. Was man bekommt? Daten Oha, ich kann meine Daten anfordern. Bei Apple. Anfordern, das klingt gut, mache ich, dachte ich mir. Also ging ich vor eineinhalb Wochen auf diese Seite und forderte meine Daten an. Seit die DSVGO in den heimischen Landen wütet und Unternehmen überall nervös versuchen zu zeigen, dass sie sich wirklich, aber WIRKLICH an die Vorschriften halten, kann man neben gefühlten drei Milliarden an Emails samt Bestätigungslink eben auch die ganz Großen wie Apple in seiner Inbox finden. Besonders transparent will man sein.
    Source
    https://www.heise.de/tp/news/Die-Sache-mit-den-Daten-4061522.html?view=print
  4. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.05
    0.054287 = product of:
      0.108574 = sum of:
        0.108574 = product of:
          0.325722 = sum of:
            0.325722 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.325722 = score(doc=230,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  5. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 3780) [ClassicSimilarity], result of:
            0.06416159 = score(doc=3780,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.03473195 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.03473195 = score(doc=3780,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.5 = coord(1/2)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  6. Bünte, O.: Bundesdatenschutzbeauftragte bezweifelt Facebooks Datenschutzversprechen (2018) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 4180) [ClassicSimilarity], result of:
            0.06416159 = score(doc=4180,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
          0.03473195 = weight(_text_:22 in 4180) [ClassicSimilarity], result of:
            0.03473195 = score(doc=4180,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 4180, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4180)
      0.5 = coord(1/2)
    
    Content
    "Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. "Das Geschäftsprinzip von Facebook ist ja gerade, Daten zu generieren und sie gewinnbringend zu vermarkten. So gesehen würde ich jetzt nicht unbedingt behaupten wollen, dass ich ihm das per se glaube, aber er kann es ja auch unter Beweis stellen", sagte die CDU-Politikerin gegenüber der Deutschen Presse-Agentur. "Aber die Zweifel bleiben insbesondere in Anbetracht eines solchen dimensional gigantischen Vorwurfs." Vgl.: http://www.heise.de/-4002008.
    Date
    23. 3.2018 13:41:22
  7. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 330) [ClassicSimilarity], result of:
            0.06416159 = score(doc=330,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 330, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=330)
          0.03473195 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
            0.03473195 = score(doc=330,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 330, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=330)
      0.5 = coord(1/2)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.
  8. Pany, T.: Gesundheit, Krankenkassen und die Ethik : Daten oder Leben! (2023) 0.05
    0.045369096 = product of:
      0.09073819 = sum of:
        0.09073819 = product of:
          0.18147638 = sum of:
            0.18147638 = weight(_text_:daten in 109) [ClassicSimilarity], result of:
              0.18147638 = score(doc=109,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7436833 = fieldWeight in 109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=109)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    https://www.telepolis.de/features/Gesundheit-Krankenkassen-und-die-Ethik-Daten-oder-Leben-9193984.html?view=print
  9. Gross, D.: Maschinelle Bilderkennung mit Big Data und Deep Learning (2017) 0.04
    0.044452455 = product of:
      0.08890491 = sum of:
        0.08890491 = product of:
          0.17780982 = sum of:
            0.17780982 = weight(_text_:daten in 3726) [ClassicSimilarity], result of:
              0.17780982 = score(doc=3726,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.72865784 = fieldWeight in 3726, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3726)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Arbeit mit unstrukturierten Daten dient gerne als Paradebeispiel für Big Data, weil die technologischen Möglichkeiten das Speichern und Verarbeiten großer Datenmengen erlauben und die Mehrheit dieser Daten unstrukturiert ist. Allerdings ist im Zusammenhang mit unstrukturierten Daten meist von der Analyse und der Extraktion von Informationen aus Texten die Rede. Viel weniger hingegen wird das Thema der Bildanalyse thematisiert. Diese gilt aber nach wie vor als eine Königdisziplin der modernen Computerwissenschaft.
  10. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.04
    0.043040905 = product of:
      0.08608181 = sum of:
        0.08608181 = product of:
          0.17216362 = sum of:
            0.17216362 = weight(_text_:daten in 3732) [ClassicSimilarity], result of:
              0.17216362 = score(doc=3732,freq=10.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7055199 = fieldWeight in 3732, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
  11. Jäger, L.: Von Big Data zu Big Brother (2018) 0.04
    0.039557412 = product of:
      0.079114825 = sum of:
        0.079114825 = sum of:
          0.05132927 = weight(_text_:daten in 5234) [ClassicSimilarity], result of:
            0.05132927 = score(doc=5234,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.21034539 = fieldWeight in 5234, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.03125 = fieldNorm(doc=5234)
          0.027785558 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
            0.027785558 = score(doc=5234,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.15476047 = fieldWeight in 5234, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5234)
      0.5 = coord(1/2)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Date
    22. 1.2018 11:33:49
  12. Iglezakis, D.; Schembera, B.: Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement der Universität Stuttgart : Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING (2018) 0.04
    0.03929079 = product of:
      0.07858158 = sum of:
        0.07858158 = product of:
          0.15716316 = sum of:
            0.15716316 = weight(_text_:daten in 4488) [ClassicSimilarity], result of:
              0.15716316 = score(doc=4488,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6440486 = fieldWeight in 4488, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4488)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Forschungsdaten sind die Grundlage aller wissenschaftlichen Praxis und der Ausgangspunkt für alle daraus gewonnenen Erkenntnisse. Dieser Wert spiegelt sich allerdings oft nicht im Management von Forschungsdaten wider. Insbesondere in den Ingenieurwissenschaften gibt es Nachholbedarf, was das zweckgerichtete Forschungsdatenmanagement angeht, um die Daten nachnutzbar, nachvollziehbar und nachprüfbar zu machen. Die vorliegende Veröffentlichung fasst die Ergebnisse der Bedarfsanalyse des Projektes DIPL-ING zusammen, welches das Ziel hat, gemeinsam mit Ingenieurwissenschaftlerinnen und Ingenieurwissenschaftler Konzepte für das Forschungsdatenmanagement in den Ingenieurwissenschaften bereitzustellen. Anhand von konkreten Anwendungsfällen aus der technischen Thermodynamik und der Aerodynamik wurden Problembereiche und Anforderungen der Ingenieurwissenschaften an das Forschungsdatenmanagement ermittelt. Spezifische Anforderungen ergeben sich dadurch, dass die Forschung zu einem nicht unerheblichen Teil auf Software und Code beruht, der zum Teil sehr große Mengen an Roh- und auch verarbeiteten Daten generiert und weiterverarbeitet. Ziel ist es, eine sinnvolle interne wie externe Nachnutzung von Forschungsdaten zu ermöglichen. Dafür werden fachspezifische Metadatenstandards benötigt, die den Entstehungsprozess der Daten und Codes dokumentieren können und so sowohl die Suchbarkeit als auch die Verständlichkeit der Daten fördern. Zudem fehlen klare fachspezifische Richtlinien, welche Daten für welchen Zeitraum ökonomisch sinnvoll abgelegt werden sollen. Für die Veröffentlichung der Daten werden Infrastrukturen benötigt, die sowohl mit großen Datenmengen wie auch mit Software und Code umgehen können und eine Qualitäts- wie auch Zugriffskontrolle ermöglichen.
  13. Positionspapier der DMV zur Verwendung bibliometrischer Daten (2020) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 5738) [ClassicSimilarity], result of:
              0.1555836 = score(doc=5738,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 5738, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5738)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bibliometrische Daten werden heute zunehmend in der Evaluation von Forschungsergebnissen benutzt. Diese Anwendungen reichen von der (indirekten) Verwendung bei der Peer-Evaluation von Drittmittelanträgen über die Beurteilung von Bewerbungen in Berufungskommissionen oder Anträgen für Forschungszulagen bis hin zur systematischen Erhebung von forschungsorientierten Kennzahlen von Institutionen. Mit diesem Dokument will die DMV ihren Mitgliedern eine Diskussionsgrundlage zur Verwendung bibliometrischer Daten im Zusammenhang mit der Evaluation von Personen und Institutionen im Fachgebiet Mathematik zur Verfügung stellen, insbesondere auch im Vergleich zu anderen Fächern. Am Ende des Texts befindet sich ein Glossar, in dem die wichtigsten Begriffe kurz erläutert werden.
  14. Harbeck, M.; Imeri, S.; Sterzer, W.: Feldnotizen und Videomitschnitte : zum Forschungsdatenmanagement qualitativer Daten am Beispiel der ethnologischen Fächer (2018) 0.04
    0.038496953 = product of:
      0.076993905 = sum of:
        0.076993905 = product of:
          0.15398781 = sum of:
            0.15398781 = weight(_text_:daten in 4355) [ClassicSimilarity], result of:
              0.15398781 = score(doc=4355,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.63103616 = fieldWeight in 4355, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4355)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sollen Daten aus qualitativer (Sozial-)Forschung dauerhaft archiviert und für die Nachnutzung zur Verfügung gestellt werden, dann entstehen erhebliche Probleme: Solche Daten sind kaum standardisiert und liegen in heterogenen Formaten vor, sie sind meist hoch sensibel und benötigen besondere Schutzmechanismen. Der Beitrag thematisiert das Forschungsdatenmanagement qualitativer Daten am Beispiel ethnografischer Forschung aus unterschiedlichen Perspektiven: Er bietet erstens Einblicke in die Positionen von Ethnologinnen und Ethnologen und skizziert fachspezifische Probleme und stellt zweitens vor, welche infrastrukturellen Lösungen für ähnlich gelagerte Schwierigkeiten bereits existieren. Grundlage sind Erhebungen, die im Rahmen des Fachinformationsdienstes Sozial- und Kulturanthropologie an der Universitätsbibliothek der Humboldt-Universität zu Berlin einerseits den aktuellen Stand des Umgangs mit Forschungsdaten und andererseits Bedingungen und Lösungen für die Überführung ethnografischer Materialien in digitale Langzeitarchive eruieren.
  15. Brehm, E.; Neumann, J.: Anforderungen an Open-Access-Publikation von Forschungsdaten : Empfehlungen für einen offenen Umgang mit Forschungsdaten (2018) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 4483) [ClassicSimilarity], result of:
              0.1451811 = score(doc=4483,freq=16.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 4483, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4483)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Publikation von Forschungsdaten wird vor allem im Rahmen der Forschungsförderung verstärkt eingefordert, um Forschungsergebnisse nachvollziehbar, reproduzierbar und nachnutzbar zu machen. Im Rahmen der Publikation der Daten ist zu berücksichtigen, dass nicht alle Daten gleichermaßen für die Nachnutzung wissenschaftlich relevant und interessant sind. Darüber hinaus werden im Verlauf des Forschungsprozesses eine Reihe von rechtlich relevanten Regelungen und Vereinbarungen mit unterschiedlichen Akteuren getroffen. In der Regel werden diese unabhängig voneinander vereinbart, wenig aufeinander abgestimmt und auch im Rahmen von Datenmanagementplänen so getroffen, dass Datenpublikationen mitunter verhindert bzw. erschwert werden können. Die Publikation von Forschungsdaten wird, wenn überhaupt, erst am Ende des Forschungsprozesses in Betracht gezogen. Dann ist die Prüfung der Rechtslage an den Daten, die Auswahl und die Aufbereitung der Daten zwecks Publikation jedoch mit erheblichem Aufwand verbunden und zum Teil gar nicht mehr möglich. Im Rahmen dieses Artikels stellen wir vor, im Hinblick auf welche Aspekte die Daten für eine Publikation auszuwählen sind und wann die Rechtslage an den Daten geprüft werden muss, um eine offene Datenpublikation zu ermöglichen. Dabei werden sowohl die Rollen aller beteiligten Akteure wie Kooperationspartner, Forschungsförderer und Repositoriumsbetreiber als auch der jeweilige rechtliche Rahmen der Forschungsdaten betrachtet. Zur Erleichterung der Analyse der Rechtslage an den Daten wird ein Ansatz für die Bildung von Fallgruppen vorgestellt, der im Rahmen von aktuellen Projekten und Entwicklungen im Forschungsdatenmanagement verfeinert werden muss. Das fallgruppenorientierte Vorgehen ist eine praktikable Hilfestellung für die Beratung von Forschenden zum Forschungsdatenmanagement in der Praxis. Datenmanagementpläne und andere im Forschungsprozess geschlossene Vereinbarungen können im Hinblick auf die Nachnutzung von Forschungsdaten gestaltet werden. Bereits im Rahmen von Schulungen und Beratungsgesprächen können geeignete Lizenzempfehlungen für die Open-Access-Publikation von Forschungsdaten gegeben werden. Ziel ist, möglichst viele publikationsrelevante Daten im Sinne der FAIR Principles1 Open Access publizieren zu können und unnötige Beschränkungen zu vermeiden.
  16. Meister, A.: Provider sollen Internetverkehr umleiten, damit Geheimdienste hacken können : Staatstrojaner (2020) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 5926) [ClassicSimilarity], result of:
              0.1451811 = score(doc=5926,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 5926, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5926)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Geheimdienste wollen Hardware bei Internet-Providern installieren, um Staatstrojaner in Datenverkehr einzuschleusen. Das steht in einem Gesetzentwurf zum Verfassungsschutzrecht, den die Bundesregierung nächste Woche beschließen will. Die Provider wollen keine Hilfssheriffs sein. Die Dienste-Anbieter sollen nicht nur eine Kopie der Daten ausleiten, das wäre eine normale Telekommunikationsüberwachung. Stattdessen sollen "die umgeleiteten Daten nach Durchführung der Maßnahme zur Weiterleitung an den Adressaten bestimmt bleiben". Der Datenverkehr soll also durch einen Hacking-Proxy der Geheimdienste geleitet werden.
  17. Jörs, B.: ¬Die Informationswissenschaft ist tot, es lebe die Datenwissenschaft (2019) 0.03
    0.033951122 = product of:
      0.067902245 = sum of:
        0.067902245 = product of:
          0.13580449 = sum of:
            0.13580449 = weight(_text_:daten in 5879) [ClassicSimilarity], result of:
              0.13580449 = score(doc=5879,freq=14.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5565216 = fieldWeight in 5879, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5879)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Haben die "Daten" bzw. die "Datenwissenschaft" (Data Science) die "Information" bzw. die Informationswissenschaft obsolet gemacht? Hat die "Data Science" mit ihren KI-gestützten Instrumenten die ökonomische und technische Herrschaft über die "Daten" und damit auch über die "Informationen" und das "Wissen" übernommen? Die meist in der Informatik/Mathematik beheimatete "Data Science" hat die wissenschaftliche Führungsrolle übernommen, "Daten" in "Informationen" und "Wissen" zu transferieren." "Der Wandel von analoger zu digitaler Informationsverarbeitung hat die Informationswissenschaft im Grunde obsolet gemacht. Heute steht die Befassung mit der Kategorie "Daten" und deren kausaler Zusammenhang mit der "Wissens"-Generierung (Erkennung von Mustern und Zusammenhängen, Prognosefähigkeit usw.) und neuronalen Verarbeitung und Speicherung im Zentrum der Forschung." "Wäre die Wissenstreppe nach North auch für die Informationswissenschaft gültig, würde sie erkennen, dass die Befassung mit "Daten" und die durch Vorwissen ermöglichte Interpretation von "Daten" erst die Voraussetzungen schaffen, "Informationen" als "kontextualisierte Daten" zu verstehen, um "Informationen" strukturieren, darstellen, erzeugen und suchen zu können."
  18. Wetzel, D.: Bücher, Spielzeug, Daten, Krieg : Die globalen Software- und Internetriesen drängen in das Geschäft mit »Sicherheit«. (2019) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 3955) [ClassicSimilarity], result of:
              0.13335738 = score(doc=3955,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 3955, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3955)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Menschen in Deutschland ist Amazon vor allem bekannt als Onlinehändler, der ihnen fast alles nach Hause liefert: Bücher und Küchengeräte, Musik, Spielzeug und Möbel. Doch ist der USTechnologiekonzern mehr als ein riesiges Versandhaus - er ist auch ein gigantischer Datenspeicher. Diese Speicher nutzen inzwischen auch die Polizei, die Geheimdienste - und bald vielleicht auch das US-Militär. Zwischen den großen Cloud-Anbietern ist ein Kampf um einen Großauftrag entbrannt, mit dem das Pentagon seine weltweite Kriegsführung optimieren will. Amazon hat gute Chancen. Die »Neue Osnabrücker Zeitung« hatte Anfang März unter Berufung auf Behördenangaben berichtet, dass Amazons Tochterunternehmen Amazon Web Services die Bodycam-Aufnahmen der deutschen Bundespolizei auf ihren Cloudservern speichert. Damit ist die Bundespolizei nicht allein. Die CIA schloss schon 2013 einen Vertrag über etwa eine halbe Milliarde Dollar mit Amazon ab. Seitdem werden Daten des US-Geheimdienstes in der Cloud von Amazon gespeichert.
    Source
    Neues Deutschland. 2019, 06.04.2109, S.18 [https://www.neues-deutschland.de/artikel/1116173.amazon-buecher-spielzeug-daten-krieg.html]
  19. Perry, A.; Recker, J.: Sozialwissenschaftliche Forschungsdaten langfristig sichern und zugänglich machen : Herausforderungen und Lösungsansätze (2018) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 4353) [ClassicSimilarity], result of:
              0.13335738 = score(doc=4353,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 4353, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4353)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Sozialwissenschaftlerinnen und -wissenschaftler sind gemäß der guten wissenschaftlichen Praxis dazu angehalten, den Forschungsprozess möglichst transparent zu halten, ihre Forschungsergebnisse reproduzierbar zu machen und im Sinne von "Open Science" erhobene Daten für die Nachnutzung zur Verfügung zu stellen. Dies ist allerdings mit einigen Hürden verbunden. So müssen nachnutzbare Daten so dokumentiert werden, dass sie für Dritte auffindbar und verständlich sind. Gleichzeitig müssen personenbezogene Daten der Teilnehmenden ausreichend geschützt werden. Forschende sind hier auf Unterstützung angewiesen, um diesen Ansprüchen an die empirische Forschung gerecht zu werden. Dieser Artikel geht zunächst auf die Hürden bei der Bereitstellung von sozialwissenschaftlichen Forschungsdaten ein und stellt dann Dienstleistungen des GESIS Datenarchivs für Sozialwissenschaften vor, die Forschenden helfen, diese Hürden zu meistern.
  20. Loonus, Y.: Einsatzbereiche der KI und ihre Relevanz für Information Professionals (2017) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 5668) [ClassicSimilarity], result of:
              0.13335738 = score(doc=5668,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 5668, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5668)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Es liegt in der Natur des Menschen, Erfahrungen und Ideen in Wort und Schrift mit anderen teilen zu wollen. So produzieren wir jeden Tag gigantische Mengen an Texten, die in digitaler Form geteilt und abgelegt werden. The Radicati Group schätzt, dass 2017 täglich 269 Milliarden E-Mails versendet und empfangen werden. Hinzu kommen größtenteils unstrukturierte Daten wie Soziale Medien, Presse, Websites und firmeninterne Systeme, beispielsweise in Form von CRM-Software oder PDF-Dokumenten. Der weltweite Bestand an unstrukturierten Daten wächst so rasant, dass es kaum möglich ist, seinen Umfang zu quantifizieren. Der Versuch, eine belastbare Zahl zu recherchieren, führt unweigerlich zu diversen Artikeln, die den Anteil unstrukturierter Texte am gesamten Datenbestand auf 80% schätzen. Auch wenn nicht mehr einwandfrei nachvollziehbar ist, woher diese Zahl stammt, kann bei kritischer Reflexion unseres Tagesablaufs kaum bezweifelt werden, dass diese Daten von großer wirtschaftlicher Relevanz sind.

Years

Languages

  • d 95
  • e 29
  • a 1
  • More… Less…