Search (132 results, page 1 of 7)

  • × year_i:[2020 TO 2030}
  • × type_ss:"a"
  1. Hahn, S.: DarkBERT ist mit Daten aus dem Darknet trainiert : ChatGPTs dunkler Bruder? (2023) 0.06
    0.05556557 = product of:
      0.11113114 = sum of:
        0.11113114 = product of:
          0.22226228 = sum of:
            0.22226228 = weight(_text_:daten in 979) [ClassicSimilarity], result of:
              0.22226228 = score(doc=979,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.9108223 = fieldWeight in 979, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=979)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Forscher haben ein KI-Modell entwickelt, das mit Daten aus dem Darknet trainiert ist - DarkBERTs Quelle sind Hacker, Cyberkriminelle, politisch Verfolgte.
    Source
    https://www.heise.de/news/DarkBERT-ist-mit-Daten-aus-dem-Darknet-trainiert-ChatGPTs-dunkler-Bruder-9060809.html?view=print
  2. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.05
    0.04944677 = product of:
      0.09889354 = sum of:
        0.09889354 = sum of:
          0.06416159 = weight(_text_:daten in 330) [ClassicSimilarity], result of:
            0.06416159 = score(doc=330,freq=2.0), product of:
              0.24402376 = queryWeight, product of:
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.051270094 = queryNorm
              0.26293173 = fieldWeight in 330, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.759573 = idf(docFreq=1029, maxDocs=44218)
                0.0390625 = fieldNorm(doc=330)
          0.03473195 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
            0.03473195 = score(doc=330,freq=2.0), product of:
              0.17953913 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.051270094 = queryNorm
              0.19345059 = fieldWeight in 330, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=330)
      0.5 = coord(1/2)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.
  3. Pany, T.: Gesundheit, Krankenkassen und die Ethik : Daten oder Leben! (2023) 0.05
    0.045369096 = product of:
      0.09073819 = sum of:
        0.09073819 = product of:
          0.18147638 = sum of:
            0.18147638 = weight(_text_:daten in 109) [ClassicSimilarity], result of:
              0.18147638 = score(doc=109,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.7436833 = fieldWeight in 109, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=109)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    https://www.telepolis.de/features/Gesundheit-Krankenkassen-und-die-Ethik-Daten-oder-Leben-9193984.html?view=print
  4. Mandl, T.: Text Mining und Data Mining (2023) 0.04
    0.044913113 = product of:
      0.089826226 = sum of:
        0.089826226 = product of:
          0.17965245 = sum of:
            0.17965245 = weight(_text_:daten in 774) [ClassicSimilarity], result of:
              0.17965245 = score(doc=774,freq=8.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.73620886 = fieldWeight in 774, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=774)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Text und Data Mining sind ein Bündel von Technologien, die eng mit den Themenfeldern Statistik, Maschinelles Lernen und dem Erkennen von Mustern verbunden sind. Die üblichen Definitionen beziehen eine Vielzahl von verschiedenen Verfahren mit ein, ohne eine exakte Grenze zu ziehen. Data Mining bezeichnet die Suche nach Mustern, Regelmäßigkeiten oder Auffälligkeiten in stark strukturierten und vor allem numerischen Daten. "Any algorithm that enumerates patterns from, or fits models to, data is a data mining algorithm." Numerische Daten und Datenbankinhalte werden als strukturierte Daten bezeichnet. Dagegen gelten Textdokumente in natürlicher Sprache als unstrukturierte Daten.
  5. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.04
    0.04071525 = product of:
      0.0814305 = sum of:
        0.0814305 = product of:
          0.2442915 = sum of:
            0.2442915 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.2442915 = score(doc=862,freq=2.0), product of:
                0.43466842 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.051270094 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  6. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.04
    0.03929079 = product of:
      0.07858158 = sum of:
        0.07858158 = product of:
          0.15716316 = sum of:
            0.15716316 = weight(_text_:daten in 366) [ClassicSimilarity], result of:
              0.15716316 = score(doc=366,freq=12.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6440486 = fieldWeight in 366, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=366)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
  7. Positionspapier der DMV zur Verwendung bibliometrischer Daten (2020) 0.04
    0.0388959 = product of:
      0.0777918 = sum of:
        0.0777918 = product of:
          0.1555836 = sum of:
            0.1555836 = weight(_text_:daten in 5738) [ClassicSimilarity], result of:
              0.1555836 = score(doc=5738,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.6375756 = fieldWeight in 5738, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5738)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bibliometrische Daten werden heute zunehmend in der Evaluation von Forschungsergebnissen benutzt. Diese Anwendungen reichen von der (indirekten) Verwendung bei der Peer-Evaluation von Drittmittelanträgen über die Beurteilung von Bewerbungen in Berufungskommissionen oder Anträgen für Forschungszulagen bis hin zur systematischen Erhebung von forschungsorientierten Kennzahlen von Institutionen. Mit diesem Dokument will die DMV ihren Mitgliedern eine Diskussionsgrundlage zur Verwendung bibliometrischer Daten im Zusammenhang mit der Evaluation von Personen und Institutionen im Fachgebiet Mathematik zur Verfügung stellen, insbesondere auch im Vergleich zu anderen Fächern. Am Ende des Texts befindet sich ein Glossar, in dem die wichtigsten Begriffe kurz erläutert werden.
  8. Scholz, M.: Wie können Daten im Web mit JSON nachgenutzt werden? (2023) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 5345) [ClassicSimilarity], result of:
              0.1451811 = score(doc=5345,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 5345, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5345)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Martin Scholz ist Informatiker an der Universitätsbibliothek Erlangen-Nürnberg. Als Leiter der dortigen Gruppe Digitale Entwicklung und Datenmanagement beschäftigt er sich viel mit Webtechniken und Datentransformation. Er setzt sich mit der aktuellen ABI-Techik-Frage auseinander: Wie können Daten im Web mit JSON nachgenutzt werden?
  9. Meister, A.: Provider sollen Internetverkehr umleiten, damit Geheimdienste hacken können : Staatstrojaner (2020) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 5926) [ClassicSimilarity], result of:
              0.1451811 = score(doc=5926,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 5926, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5926)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Geheimdienste wollen Hardware bei Internet-Providern installieren, um Staatstrojaner in Datenverkehr einzuschleusen. Das steht in einem Gesetzentwurf zum Verfassungsschutzrecht, den die Bundesregierung nächste Woche beschließen will. Die Provider wollen keine Hilfssheriffs sein. Die Dienste-Anbieter sollen nicht nur eine Kopie der Daten ausleiten, das wäre eine normale Telekommunikationsüberwachung. Stattdessen sollen "die umgeleiteten Daten nach Durchführung der Maßnahme zur Weiterleitung an den Adressaten bestimmt bleiben". Der Datenverkehr soll also durch einen Hacking-Proxy der Geheimdienste geleitet werden.
  10. Assfalg, R.: Metadaten (2023) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 787) [ClassicSimilarity], result of:
              0.1451811 = score(doc=787,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 787, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=787)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
  11. Caspar, J.: Datenschutz und Informationsfreiheit (2023) 0.04
    0.036295276 = product of:
      0.07259055 = sum of:
        0.07259055 = product of:
          0.1451811 = sum of:
            0.1451811 = weight(_text_:daten in 823) [ClassicSimilarity], result of:
              0.1451811 = score(doc=823,freq=4.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5949466 = fieldWeight in 823, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=823)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Daten sind der Treibstoff der Informationsgesellschaft. Sie sind zentrale Steuerungsressourcen für Wirtschaft und Verwaltung und treiben die Algorithmen an, die die digitale Welt lenken. Darüber hinaus ist der Umgang mit Daten in der öffentlichen Verwaltung entscheidend für die demokratische Willensbildung. Nicht nur in Zeiten von Meinungsmanipulationen und Falschmeldung ist das Recht auf Zugang zu öffentlichen Informationen eine Säule des digitalen Rechtsstaats.
  12. Voß, J.: Datenqualität als Grundlage qualitativer Inhaltserschließung (2021) 0.03
    0.033339344 = product of:
      0.06667869 = sum of:
        0.06667869 = product of:
          0.13335738 = sum of:
            0.13335738 = weight(_text_:daten in 370) [ClassicSimilarity], result of:
              0.13335738 = score(doc=370,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.5464934 = fieldWeight in 370, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.046875 = fieldNorm(doc=370)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Spätestens mit Beginn des 21. Jahrhunderts findet die inhaltliche Erschließung von Dokumenten praktisch ausschließlich in digitaler Form statt. Dies gilt sowohl für die fachliche Inhaltserschließung durch Bibliotheken und andere Dokumentationseinrichtungen als auch für die verschiedensten Formen inhaltlicher Beschreibung in Datenbanken - von Produktbeschreibungen im Internethandel bis zum Social Tagging. Selbst dort, wo analoge Ursprünge vorhanden sind, beispielsweise handschriftliche Notizen oder retrokonvertierte Findmittel, liegt die Sacherschließung am Ende in Form von Daten vor. Für die konkrete Ausprägung dieser Daten gibt es allerdings viele verschiedene Möglichkeiten. Der vorliegende Beitrag soll einen Überblick darüber geben, wie unterschiedliche Praktiken der Datenverarbeitung die Qualität von Inhaltserschließung beeinflussen und wie die Qualität von Erschließungsdaten beurteilt werden kann. Der Fokus liegt also nicht auf den Inhalten von Erschließungsdaten, sondern auf ihrer Form. Die Form von Daten ist keine rein technische Nebensächlichkeit, sondern durchaus relevant: So ist eine inhaltlich hervorragende Erschließung unbrauchbar, wenn die Erschließungsdaten aufgrund inkompatibler Datenformate nicht verwendet werden können. Zur qualitativen Einschätzung von Inhaltserschließung ist es daher notwendig, sich auch darüber im Klaren zu sein, wie und in welcher Form die Erschließungsdaten verarbeitet werden.
  13. Grassmann, P.: Corona-App : Wie geht es nach dem Lockdown weiter? (202) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 3894) [ClassicSimilarity], result of:
              0.12832318 = score(doc=3894,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 3894, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3894)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wir sollten uns eher zur Abgabe unserer Daten bereiterklären, als wochenlang in einem durch "Datenschutz" begründeten Lockdown zu veröden.
  14. DeWeerdt, S.: ¬Ein Schaltplan fürs Gehirn (2020) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 5653) [ClassicSimilarity], result of:
              0.12832318 = score(doc=5653,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 5653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5653)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Synapse für Synapse kartieren Forscher das Gehirn von verschiedenen Spezies. Erste Daten zum Mäusehirn existieren bereits. Doch bis der komplette Schaltplan des menschlichen Denkorgans vorliegt, bleibt noch viel zu tun.
  15. Brembs, B.; Förstner, K.; Kraker, P.; Lauer, G.; Müller-Birn, C.; Schönbrodt, F.; Siems, R.: Auf einmal Laborratte (2021) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 83) [ClassicSimilarity], result of:
              0.12832318 = score(doc=83,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 83, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=83)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die großen Verlage haben ein neues Geschäftsfeld entdeckt: die Überwachung von Wissenschaftlern und den Verkauf ihrer Daten. Sie nehmen dadurch weitreichenden Einfluss auf die Forschung. Die Europäische Union muss dringend eingreifen.
  16. Döpfner, M.: Totale Transparenz endet immer totalitär (2021) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 110) [ClassicSimilarity], result of:
              0.12832318 = score(doc=110,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 110, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=110)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    "Wir wissen, wo Du bist. Wir wissen, wo Du warst. Wir wissen mehr oder weniger, woran Du denkst." - Europa muss die Daten-Allmacht der amerikanischen und chinesischen Tech-Giganten brechen. Ein offener Brief des Vorstandschefs von Axel Springer an die Präsidentin der EU-Kommission.
  17. dpa: ¬Das sind die besten Google-Alternativen (2023) 0.03
    0.032080796 = product of:
      0.06416159 = sum of:
        0.06416159 = product of:
          0.12832318 = sum of:
            0.12832318 = weight(_text_:daten in 952) [ClassicSimilarity], result of:
              0.12832318 = score(doc=952,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.52586347 = fieldWeight in 952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.078125 = fieldNorm(doc=952)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wer nicht möchte, dass seine oder ihre Daten beim Surfen im Internet gesammelt werden, muss sich nach anderen Suchmaschinen umsehen. Die arbeiten auch gut - teils sogar mit künstlicher Intelligenz.
  18. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 72) [ClassicSimilarity], result of:
              0.11113114 = score(doc=72,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 72, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=72)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
  19. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.03
    0.027782785 = product of:
      0.05556557 = sum of:
        0.05556557 = product of:
          0.11113114 = sum of:
            0.11113114 = weight(_text_:daten in 791) [ClassicSimilarity], result of:
              0.11113114 = score(doc=791,freq=6.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.45541114 = fieldWeight in 791, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
  20. Zweig, K.; Luttenberger, J.: KI ist keine Magie (2020) 0.03
    0.025664635 = product of:
      0.05132927 = sum of:
        0.05132927 = product of:
          0.10265854 = sum of:
            0.10265854 = weight(_text_:daten in 5503) [ClassicSimilarity], result of:
              0.10265854 = score(doc=5503,freq=2.0), product of:
                0.24402376 = queryWeight, product of:
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.051270094 = queryNorm
                0.42069077 = fieldWeight in 5503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.759573 = idf(docFreq=1029, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5503)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Thema "Künstliche Intelligenz" (KI) wird immer wichtiger. Die Kaiserslauterer Informatikprofessorin Katharina Zweig ist Kl-Expertinund Autorin des Erklärbuchs "Ein Algorithmus hat kein Taktgefühl". Im großen RHEINPFALZ-Gespräch erläutert sie, wie Kl und Datenschutz zusammengehen können - durch dezentrales Lernen. Die Daten bleiben dadurch beim Nutzer. "KI wird insgesamt näher an uns heranrücken, darum müssen wir Betriebsräte, Schulelternbeiräte, Betroffene und Bürger befähigen, sich einmischen zu können",

Languages

  • e 72
  • d 60

Types

  • el 33
  • p 1
  • More… Less…