Search (360 results, page 2 of 18)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Strube, S.: Eine Woche billige Klickarbeit machte mich zum digitalen Lumpenproletarier (2014) 0.02
    0.021796327 = product of:
      0.08718531 = sum of:
        0.08718531 = weight(_text_:digitale in 4164) [ClassicSimilarity], result of:
          0.08718531 = score(doc=4164,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.48363256 = fieldWeight in 4164, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=4164)
      0.25 = coord(1/4)
    
    Abstract
    Meine Karriere als Crowdworker hat mir einen maximalen Stundenlohn von vier Euro und einen dystopischen Einblick in die digitale Arbeiterschaft von morgen eingebracht. Digitalisierung und Hyperkapitalismus globalisieren nicht nur unseren Freundeskreis, sondern bescheren uns auch neuartige Formen der Lohnarbeit. In den letzten Jahren entwickelte sich im Netz ein unterbezahltes Klickproletariat, in dem sich der Arbeiter selbstverantwortlich gegen eine große unbekannte Konkurrenz von Mikro-Jobbern abschuftet. November 2005: Amazon stellt eine neue Website ins Netz. Sie heißt Mechanical Turk und soll ein ganz bestimmtes Problem lösen: Seit Kurzem verkauft der Onlinebuchhändler nämlich auch CDs. Da Amazon 2005 schon ein Gigant im Onlinehandel ist, geht es dabei nicht nur um ein paar CDs, sondern um Hunderttausende-und diese Angebote müssen ganz schnell ihren Weg auf die Webseite finden. Die Herausforderung dabei: Jemand muss überprüfen, ob die Cover jugendfrei sind, ob alle Liedtitel richtig angezeigt werden, ob die Sänger- und Komponistennamen stimmen.
    Source
    https://motherboard.vice.com/de/article/aekpag/Billige-Clickarbeit-und-das-digitale-Lumpenproletariat-919
  2. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.02
    0.021796327 = product of:
      0.08718531 = sum of:
        0.08718531 = weight(_text_:digitale in 47) [ClassicSimilarity], result of:
          0.08718531 = score(doc=47,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.48363256 = fieldWeight in 47, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=47)
      0.25 = coord(1/4)
    
    Abstract
    Die Digitalisierung des kulturellen Erbes in Bibliotheken, Archiven und Museen hat in den letzten Jahrzehnten eine rasant zunehmende Verfügbarkeit kultureller Inhalte im Web bewirkt - so hat die Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB-PK) rund 170.000 Werke (Bücher, Zeitschriften, Zeitungen, Karten, Notenschriften etc.) aus ihrem reichhaltigen Bestand digitalisiert und über ein eigenes Online-Portal bereitgestellt (Stand Mai 2020). Noch deutlicher wird die immense Menge der durch die Digitalisierung entstandenen digitalen Kulturobjekte beim Blick auf die von Aggregatoren gebildeten Sammlungen - so beinhaltet die Deutsche Digitale Bibliothek etwa 33 Millionen Nachweise für Digitalisate aus Kultureinrichtungen (Stand Mai 2020), die europäische digitale Bibliothek Europeana weist knapp 60 Millionen digitalisierte Kulturobjekte nach (Stand Mai 2020).
  3. Bubenhofer, N.; Rothenhäusler, K.: "Korporatheken" : die digitale und verdatete Bibliothek (2016) 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 3207) [ClassicSimilarity], result of:
          0.08219909 = score(doc=3207,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 3207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=3207)
      0.25 = coord(1/4)
    
  4. Frank, I.: Fortschritt durch Rückschritt : vom Bibliothekskatalog zum Denkwerkzeug. Eine Idee (2016) 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 3982) [ClassicSimilarity], result of:
          0.08219909 = score(doc=3982,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 3982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=3982)
      0.25 = coord(1/4)
    
    Abstract
    Der Text zeigt anhand einer essayistisch selektiven Rückschau in die Zeit vor den Digital Humanities bibliotheks- und informationswissenschaftliche Ansätze zur Entwicklung hypertextueller Werkzeuge für Bibliographie-Verwaltung und Strukturierung des wissenschaftlichen Diskurses - eine zukunftsweisende Idee für eine digitale Geisteswissenschaft zur Unterstützung geisteswissenschaftlicher Denkarbeit jenseits von reinem 'distant thinking'.
  5. Meier, V.; Giesen, R.: "Wir sind die Neandertaler der Zukunft!" 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 4264) [ClassicSimilarity], result of:
          0.08219909 = score(doc=4264,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 4264, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0625 = fieldNorm(doc=4264)
      0.25 = coord(1/4)
    
    Content
    "In der digitalen Welt ist die Überwachung eingeschlossen. Da bin ich doch Exhibitionist. Ich möchte doch überwacht werden; ich will, dass meine Blogs gelesen werden. Da braucht es noch nicht einmal Überwachungsinstrumente dafür." "... virtuelle Welten als Ersatz für eine kaputte, übervölkerte Umwelt, digitale Euthanasie - das hört sich alles schlimm an, aber ich garantiere: die Leute werden es gut finden."
  6. EBSCO - Brockhaus : struktureller Wandel vom Bildungs- und Wissensanbieter (2017) 0.02
    0.01798105 = product of:
      0.0719242 = sum of:
        0.0719242 = weight(_text_:digitale in 3564) [ClassicSimilarity], result of:
          0.0719242 = score(doc=3564,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.39897648 = fieldWeight in 3564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3564)
      0.25 = coord(1/4)
    
    Abstract
    Die Brockhaus Enzyklopädie wurde in den EBSCO Discovery Service integriert. Die Brockhaus Enzyklopädie als allgemeinbildendes Nachschlagewerk bietet den perfekten Startpunkt für jede Recherche. 1805 von Friedrich Arnold in Amsterdam gegründet, war Brockhaus über zwei Jahrhunderte hinweg der führende Herausgeber gedruckter Nachschlagewerke im deutschsprachigen Raum. 2002 startete Brockhaus seine erste digitale Enzyklopädier. 2008 wurde das Unternehmen an die Bertelsmann Gruppe verkauft, 2015 von der schwedischen NE Nationalencyklopedin AB übernommen. Dieses Unternehmen versorgt drei von vier schwedischen Schulen mit digitalen Diensten. Unter der Firmierung Brockhaus / NE GmbH wandelt sich das Unternehmen mit Nachschlagewerken und E-Learning-Angeboten vom Wissens- zum Bildungsanbieter.
  7. Geuter, J.: Nein, Ethik kann man nicht programmieren (2018) 0.02
    0.01798105 = product of:
      0.0719242 = sum of:
        0.0719242 = weight(_text_:digitale in 4428) [ClassicSimilarity], result of:
          0.0719242 = score(doc=4428,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.39897648 = fieldWeight in 4428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4428)
      0.25 = coord(1/4)
    
    Content
    Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren - Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten - Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche - Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen - Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren - Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus.
  8. Gantert, K.; Neher, G.; Schade, F.: Was an den deutschsprachigen Hochschulen geforscht wird : Dritter Teil: Didaktische Konzepte in der Lehre (2019) 0.02
    0.01798105 = product of:
      0.0719242 = sum of:
        0.0719242 = weight(_text_:digitale in 5230) [ClassicSimilarity], result of:
          0.0719242 = score(doc=5230,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.39897648 = fieldWeight in 5230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5230)
      0.25 = coord(1/4)
    
    Abstract
    Die digitale Transformation verändert die Berufsfelder, für die die bibliotheks- und informationswissenschaftlichen Studiengänge ausbilden. Das wirft die Frage auf, inwieweit neue oder zumindest modifizierte didaktische Konzepte notwendig sind, um den Nachwuchs adäquat auf die neuen Herausforderungen vorzubereiten. Dabei zeigt sich, dass die Vermittlung von Metakompetenzen und Schlüsselkompetenzen wie Projektmanagement, Kommunikation, Teamfähigkeit, selbstständiges Denken und Handeln an Bedeutung gewinnen. Zusätzlich zu der fachwissenschaftlichen Ausbildung sind methodische und Schlüsselkompetenzen bereits heute integraler Bestandteil der Lehre.
  9. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.02
    0.01798105 = product of:
      0.0719242 = sum of:
        0.0719242 = weight(_text_:digitale in 5954) [ClassicSimilarity], result of:
          0.0719242 = score(doc=5954,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.39897648 = fieldWeight in 5954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
      0.25 = coord(1/4)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).
  10. Hermsdorf, D.: Info-Überfluss, Hyper-Konkurrenz, Entortung, digitale Verlustmodelle (2017) 0.02
    0.015412329 = product of:
      0.061649315 = sum of:
        0.061649315 = weight(_text_:digitale in 3575) [ClassicSimilarity], result of:
          0.061649315 = score(doc=3575,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 3575, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=3575)
      0.25 = coord(1/4)
    
  11. Harbeck, M.; Imeri, S.; Sterzer, W.: Feldnotizen und Videomitschnitte : zum Forschungsdatenmanagement qualitativer Daten am Beispiel der ethnologischen Fächer (2018) 0.02
    0.015412329 = product of:
      0.061649315 = sum of:
        0.061649315 = weight(_text_:digitale in 4355) [ClassicSimilarity], result of:
          0.061649315 = score(doc=4355,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 4355, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=4355)
      0.25 = coord(1/4)
    
    Abstract
    Sollen Daten aus qualitativer (Sozial-)Forschung dauerhaft archiviert und für die Nachnutzung zur Verfügung gestellt werden, dann entstehen erhebliche Probleme: Solche Daten sind kaum standardisiert und liegen in heterogenen Formaten vor, sie sind meist hoch sensibel und benötigen besondere Schutzmechanismen. Der Beitrag thematisiert das Forschungsdatenmanagement qualitativer Daten am Beispiel ethnografischer Forschung aus unterschiedlichen Perspektiven: Er bietet erstens Einblicke in die Positionen von Ethnologinnen und Ethnologen und skizziert fachspezifische Probleme und stellt zweitens vor, welche infrastrukturellen Lösungen für ähnlich gelagerte Schwierigkeiten bereits existieren. Grundlage sind Erhebungen, die im Rahmen des Fachinformationsdienstes Sozial- und Kulturanthropologie an der Universitätsbibliothek der Humboldt-Universität zu Berlin einerseits den aktuellen Stand des Umgangs mit Forschungsdaten und andererseits Bedingungen und Lösungen für die Überführung ethnografischer Materialien in digitale Langzeitarchive eruieren.
  12. Reichert, B.; Wahlster, W.: Künstliche Intelligenz als Hilfswissenschaftler : KI revolutioniert die Forschung (2018) 0.02
    0.015412329 = product of:
      0.061649315 = sum of:
        0.061649315 = weight(_text_:digitale in 4433) [ClassicSimilarity], result of:
          0.061649315 = score(doc=4433,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 4433, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=4433)
      0.25 = coord(1/4)
    
    Abstract
    KI kann die Forschung nicht nur beschleunigen, sondern auch die Qualität verbessern, sagt der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz. Nach dem Einzug in Fabriken, Büros, Autos und Wohnungen kommt Künstliche Intelligenz (KI) jetzt auch zunehmend in die Forschungslabore. Immer mehr Wissenschaftler nutzten Roboter oder digitale Assistenzsysteme, um Routinearbeiten bei Recherchen und Analysen sowie Experimente zu erledigen, sagte der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Professor Wolfgang Wahlster, der Deutschen Presse-Agentur in Saarbrücken. Dies revolutioniere nicht nur das wissenschaftliche Arbeiten: "Es bietet auch die Chance, eine neue, bislang unerreichte Qualitätsstufe in der Forschung zu erklimmen", sagte der 65-Jährige. [Zusammenfassung eines Interviews]. Enthält ein Bild, das einen Roboter vor einer Tafel mit völlig Zusammenhang losen, teilweise trivialen Formeln zeigt.
  13. Kaminski, S.; Brandt, O.: ¬ Das institutionelle Forschungsdatenrepositorium FDAT der Universität Tübingen (2018) 0.02
    0.015412329 = product of:
      0.061649315 = sum of:
        0.061649315 = weight(_text_:digitale in 4486) [ClassicSimilarity], result of:
          0.061649315 = score(doc=4486,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 4486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=4486)
      0.25 = coord(1/4)
    
    Abstract
    Das eScience-Center der Universität Tübingen bietet mit dem Forschungsdatenrepositorium FDAT lokalen Forschungsprojekten und Forschenden diverse Dienstleistungen sowie die nötige technische Ausstattung für die Langzeitarchivierung und Nachnutzung ihrer Forschungsdaten an. Dabei folgt FDAT den Richtlinien eines offenen Archivinformationssystems OAIS und wurde von unabhängiger Stelle zertifiziert. Ziel ist es, wissenschaftliche Daten sicher aufzubewahren und der breiten Öffentlichkeit nach Möglichkeit Open Access5 zur Verfügung zu stellen. Darüber hinaus sollen Wissenschaftlerinnen und Wissenschaftler in allen Phasen des Lebenszyklus ihrer Forschungsdaten durch die Betreiber des Repositoriums beraten und technisch unterstützt werden. Das Repositorium wird legitimiert durch die von der Universität Tübingen verabschiedeten Leitlinien zum Umgang mit Forschungsdaten, und neben dem eScience-Center konkret betreut durch die Universitätsbibliothek Tübingen und das ansässige Zentrum für Datenverarbeitung. Das Repositorium hat am 01.01.2017 seinen produktiven Betrieb aufgenommen und hält derzeit (15.08.2018) 6741 digitale Objekte vor.
  14. Scherschel, F.A.: Corona-Tracking : SAP und Deutsche Telekom veröffentlichen erste Details zur Tracing- und Warn-App (2020) 0.02
    0.015412329 = product of:
      0.061649315 = sum of:
        0.061649315 = weight(_text_:digitale in 5857) [ClassicSimilarity], result of:
          0.061649315 = score(doc=5857,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.34197983 = fieldWeight in 5857, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://www.heise.de/-4721652. Vgl. auch den Beitrag: "Corona-Warnung per App: Fragen und Antworten zur geplanten Tracing-App" unter: https://www.verbraucherzentrale.de/wissen/digitale-welt/apps-und-software/coronawarnung-per-app-fragen-und-antworten-zur-geplanten-tracingapp-47466
  15. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.01
    0.014530884 = product of:
      0.058123536 = sum of:
        0.058123536 = weight(_text_:digitale in 431) [ClassicSimilarity], result of:
          0.058123536 = score(doc=431,freq=4.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.3224217 = fieldWeight in 431, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.25 = coord(1/4)
    
    Content
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  16. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 3780) [ClassicSimilarity], result of:
          0.051374428 = score(doc=3780,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
      0.25 = coord(1/4)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
  17. Siems, R.: Unser industrielles Erbe : Bibliotheken und die digitale Transformation (2017) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 3997) [ClassicSimilarity], result of:
          0.051374428 = score(doc=3997,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 3997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3997)
      0.25 = coord(1/4)
    
  18. Brand, O.; Stille, W.; Schachtner, J.: HeFDI - Die landesweite Initiative zum Aufbau von Forschungsdateninfrastrukturen in Hessen : Forschungsdaten-Policies an deutschen Universitäten (2018) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 4481) [ClassicSimilarity], result of:
          0.051374428 = score(doc=4481,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 4481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4481)
      0.25 = coord(1/4)
    
    Abstract
    Digitale Forschungsdaten als Ressource sichern, aufbewahren und anderen zur Verfügung stellen: alle Phasen des Forschungsdatenzyklus adressiert das Projekt "Hessische Forschungsdateninfrastrukturen" (HeFDI), in dem elf hessische Hochschulen und die HeBIS-Verbundzentrale unter Federführung der Philipps-Universität Marburg zusammenarbeiten. Das Hessische Ministerium für Wissenschaft und Kunst fördert dieses Vorhaben mit 3,4 Millionen Euro von 2016 bis 2020. Seit Oktober 2016 arbeitet ein Team von mehr als 20 Personen an den hessischen Hochschulen am Forschungsdatenmanagement, das heißt beispielsweise an Policies, Repositorien, Schulungen und unterstützenden Tools für das aktive Datenmanagement. Das Team berät zudem die Forschenden bedarfsorientiert zu ihren Datenmanagementstrategien entlang des gesamten Datenlebenszyklus und insbesondere bei der Einwerbung und Durchführung von Drittmittelprojekten. Ziel dieser Arbeit ist der Aufbau einer Forschungsdateninfrastruktur. Dazu werden die notwendigen organisatorischen Prozesse und technischen Entwicklungen zur Verankerung des Forschungsdatenmanagements - abhängig von den Anforderungen der beteiligten Hochschulen - angestoßen, koordiniert und etabliert. Das Projekt HeFDI nimmt dabei die strategisch bedeutsame Aufgabe der Sicherung und Bereitstellung von Forschungsdaten in einer koordinierten Gesamtstrategie an. Es vertritt einen Middle-out-Ansatz, bei dem Entscheidungs- und Arbeitsebenen systematisch miteinander verzahnt werden. Damit besitzt HeFDI Modellcharakter für institutionelle Kooperation und nachhaltige Governance-Strukturen im Bereich des Forschungsdatenmanagements; die in HeFDI erarbeiteten Lösungen stehen über Hessen hinaus exemplarisch für Synergie, Effizienz, Abstimmung und Arbeitsteilung.
  19. Hedges, C.: ¬Das verdummte Volk? : Donald Trump ist ein Produkt des kulturellen Verfalls der USA (2019) 0.01
    0.012843607 = product of:
      0.051374428 = sum of:
        0.051374428 = weight(_text_:digitale in 5019) [ClassicSimilarity], result of:
          0.051374428 = score(doc=5019,freq=2.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.2849832 = fieldWeight in 5019, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5019)
      0.25 = coord(1/4)
    
    Abstract
    Viele Äußerungen Donald Trumps mögen in ihrer Zusammenhangslosigkeit und Unreflektiertheit erschrecken. Doch leider ist der US-Präsident damit kein Ausreißer nach unten - vielmehr ist er ein Produkt des kulturellen Verfalls, dem auch ein Großteil der US-Bürger unterliegt. Mit wachem Blick analysiert Chris Hedges, was die Herrschaft des elektronischen Bildes im digitalen Zeitalter für die Kultur bedeutet. Das Fernsehen, und noch viel mehr die sogenannten Sozialen Medien haben durch ihre Schnelllebigkeit, ihr dürftiges Vokabular und besonders ihre Zusammenhangslosigkeit unmündige Wesen aus ihren Konsumenten gemacht. Sinnhaftes Denken und Sprechen beherrschen sie nicht mehr. Gleichzeitig huldigen und streben sie nach der Göttlichkeit, die sie auf den Bildschirmen widergespiegelt zu sehen meinen. Die Illusion wird für sie zunehmend zur Realität. Wie die Medienkritiker, die er zitiert, mahnt Hedges: Nur eine Rückbesinnung auf Literatur, Kunst und persönlichen Umgang kann die digitale Dystopie verhindern.
  20. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.01
    0.011122892 = product of:
      0.044491567 = sum of:
        0.044491567 = weight(_text_:digitale in 5908) [ClassicSimilarity], result of:
          0.044491567 = score(doc=5908,freq=6.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.24680272 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.25 = coord(1/4)
    
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."

Years

Languages

  • e 242
  • d 111
  • i 2
  • a 1
  • es 1
  • f 1
  • sp 1
  • More… Less…