Search (5 results, page 1 of 1)

  • × theme_ss:"Data Mining"
  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Jäger, L.: Von Big Data zu Big Brother (2018) 0.02
    0.021983063 = product of:
      0.102587625 = sum of:
        0.028240517 = weight(_text_:daten in 5234) [ClassicSimilarity], result of:
          0.028240517 = score(doc=5234,freq=2.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.21034539 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.06670353 = weight(_text_:datenschutz in 5234) [ClassicSimilarity], result of:
          0.06670353 = score(doc=5234,freq=2.0), product of:
            0.2063373 = queryWeight, product of:
              7.314861 = idf(docFreq=79, maxDocs=44218)
              0.02820796 = queryNorm
            0.32327422 = fieldWeight in 5234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.314861 = idf(docFreq=79, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.007643578 = product of:
          0.015287156 = sum of:
            0.015287156 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
              0.015287156 = score(doc=5234,freq=2.0), product of:
                0.09877947 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02820796 = queryNorm
                0.15476047 = fieldWeight in 5234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5234)
          0.5 = coord(1/2)
      0.21428572 = coord(3/14)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Date
    22. 1.2018 11:33:49
  2. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.01
    0.013476149 = product of:
      0.18866608 = sum of:
        0.18866608 = weight(_text_:datenschutz in 4076) [ClassicSimilarity], result of:
          0.18866608 = score(doc=4076,freq=4.0), product of:
            0.2063373 = queryWeight, product of:
              7.314861 = idf(docFreq=79, maxDocs=44218)
              0.02820796 = queryNorm
            0.9143576 = fieldWeight in 4076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.314861 = idf(docFreq=79, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.071428575 = coord(1/14)
    
    Abstract
    Der vorliegende Beitrag beschäftigt sich mit den Rahmenbedingungen für analytische Anwendungen wie Big Data, die durch das neue europäische Datenschutzrecht entstehen, insbesondere durch die EU-Datenschutz-Grundverordnung. Er stellt wesentliche Neuerungen vor und untersucht die spezifischen datenschutzrechtlichen Regelungen im Hinblick auf den Einsatz von Big Data sowie Voraussetzungen, die durch die Verordnung abverlangt werden.
  3. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.01
    0.0057054465 = product of:
      0.079876244 = sum of:
        0.079876244 = weight(_text_:daten in 2568) [ClassicSimilarity], result of:
          0.079876244 = score(doc=2568,freq=4.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.5949466 = fieldWeight in 2568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.071428575 = coord(1/14)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
  4. Loonus, Y.: Einsatzbereiche der KI und ihre Relevanz für Information Professionals (2017) 0.01
    0.0052407878 = product of:
      0.07337102 = sum of:
        0.07337102 = weight(_text_:daten in 5668) [ClassicSimilarity], result of:
          0.07337102 = score(doc=5668,freq=6.0), product of:
            0.13425784 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.02820796 = queryNorm
            0.5464934 = fieldWeight in 5668, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=5668)
      0.071428575 = coord(1/14)
    
    Abstract
    Es liegt in der Natur des Menschen, Erfahrungen und Ideen in Wort und Schrift mit anderen teilen zu wollen. So produzieren wir jeden Tag gigantische Mengen an Texten, die in digitaler Form geteilt und abgelegt werden. The Radicati Group schätzt, dass 2017 täglich 269 Milliarden E-Mails versendet und empfangen werden. Hinzu kommen größtenteils unstrukturierte Daten wie Soziale Medien, Presse, Websites und firmeninterne Systeme, beispielsweise in Form von CRM-Software oder PDF-Dokumenten. Der weltweite Bestand an unstrukturierten Daten wächst so rasant, dass es kaum möglich ist, seinen Umfang zu quantifizieren. Der Versuch, eine belastbare Zahl zu recherchieren, führt unweigerlich zu diversen Artikeln, die den Anteil unstrukturierter Texte am gesamten Datenbestand auf 80% schätzen. Auch wenn nicht mehr einwandfrei nachvollziehbar ist, woher diese Zahl stammt, kann bei kritischer Reflexion unseres Tagesablaufs kaum bezweifelt werden, dass diese Daten von großer wirtschaftlicher Relevanz sind.
  5. Wongthontham, P.; Abu-Salih, B.: Ontology-based approach for semantic data extraction from social big data : state-of-the-art and research directions (2018) 0.00
    0.002930285 = product of:
      0.04102399 = sum of:
        0.04102399 = weight(_text_:media in 4097) [ClassicSimilarity], result of:
          0.04102399 = score(doc=4097,freq=2.0), product of:
            0.13212246 = queryWeight, product of:
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.02820796 = queryNorm
            0.31049973 = fieldWeight in 4097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.6838713 = idf(docFreq=1110, maxDocs=44218)
              0.046875 = fieldNorm(doc=4097)
      0.071428575 = coord(1/14)
    
    Abstract
    A challenge of managing and extracting useful knowledge from social media data sources has attracted much attention from academic and industry. To address this challenge, semantic analysis of textual data is focused in this paper. We propose an ontology-based approach to extract semantics of textual data and define the domain of data. In other words, we semantically analyse the social data at two levels i.e. the entity level and the domain level. We have chosen Twitter as a social channel challenge for a purpose of concept proof. Domain knowledge is captured in ontologies which are then used to enrich the semantics of tweets provided with specific semantic conceptual representation of entities that appear in the tweets. Case studies are used to demonstrate this approach. We experiment and evaluate our proposed approach with a public dataset collected from Twitter and from the politics domain. The ontology-based approach leverages entity extraction and concept mappings in terms of quantity and accuracy of concept identification.