Search (34 results, page 2 of 2)

  • × language_ss:"d"
  • × theme_ss:"Data Mining"
  1. Tiefschürfen in Datenbanken (2002) 0.01
    0.010531358 = product of:
      0.031594075 = sum of:
        0.031594075 = weight(_text_:der in 996) [ClassicSimilarity], result of:
          0.031594075 = score(doc=996,freq=4.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.27922085 = fieldWeight in 996, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=996)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein Einkauf im Supermarkt, ein Telefongespräch, ein Klick im Internet: Die Spuren solcher Allerweltsaktionen häufen sich zu Datengebirgen ungeheuren Ausmaßes. Darin noch das Wesentlich - was immer das sein mag - zu finden, ist die Aufgabe des noch jungen Wissenschaftszweiges Data Mining, der mit offiziellem Namen "Wissensentdeckung in Datenbanken" heißt
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.80-91
  2. Analytische Informationssysteme : Data Warehouse, On-Line Analytical Processing, Data Mining (1998) 0.01
    0.010531358 = product of:
      0.031594075 = sum of:
        0.031594075 = weight(_text_:der in 1380) [ClassicSimilarity], result of:
          0.031594075 = score(doc=1380,freq=4.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.27922085 = fieldWeight in 1380, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1380)
      0.33333334 = coord(1/3)
    
    Abstract
    Neben den operativen Informationssystemen treten heute verstärkt Informationssysteme für die analytischen Aufgaben der Fach- und Führungskräfte in den Vordergrund. In fast allen Unternehmen werden derzeit Begriffe und Konzepte wie Data Warehouse, On-Line Analytical Processing und Data Mining diskutiert und die zugehörigen Produkte evaluiert. Vor diesem Hintergrund zielt der vorliegende Sammelband darauf, einen aktuellen Überblick über Technologien, Produkte und Trends zu bieten. Als Entscheidungsgrundlage für den Praktiker beim Aufbau und Einsatz derartiger analytischer Informationssysteme können die unterschiedlichen Beiträge aus Wirtschaft und Wissenschaft wertvolle Hilfestellung leisten
  3. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.01
    0.010531358 = product of:
      0.031594075 = sum of:
        0.031594075 = weight(_text_:der in 4076) [ClassicSimilarity], result of:
          0.031594075 = score(doc=4076,freq=4.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.27922085 = fieldWeight in 4076, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.33333334 = coord(1/3)
    
    Abstract
    Der vorliegende Beitrag beschäftigt sich mit den Rahmenbedingungen für analytische Anwendungen wie Big Data, die durch das neue europäische Datenschutzrecht entstehen, insbesondere durch die EU-Datenschutz-Grundverordnung. Er stellt wesentliche Neuerungen vor und untersucht die spezifischen datenschutzrechtlichen Regelungen im Hinblick auf den Einsatz von Big Data sowie Voraussetzungen, die durch die Verordnung abverlangt werden.
  4. Keim, D.A.: Datenvisualisierung und Data Mining (2004) 0.01
    0.010407212 = product of:
      0.031221636 = sum of:
        0.031221636 = weight(_text_:der in 2931) [ClassicSimilarity], result of:
          0.031221636 = score(doc=2931,freq=10.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.27592933 = fieldWeight in 2931, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2931)
      0.33333334 = coord(1/3)
    
    Abstract
    Die rasante technologische Entwicklung der letzten zwei Jahrzehnte ermöglicht heute die persistente Speicherung riesiger Datenmengen durch den Computer. Forscher an der Universität Berkeley haben berechnet, dass jedes Jahr ca. 1 Exabyte (= 1 Million Terabyte) Daten generiert werden - ein großer Teil davon in digitaler Form. Das bedeutet aber, dass in den nächsten drei Jahren mehr Daten generiert werden als in der gesamten menschlichen Entwicklung zuvor. Die Daten werden oft automatisch mit Hilfe von Sensoren und Überwachungssystemen aufgezeichnet. So werden beispielsweise alltägliche Vorgänge des menschlichen Lebens, wie das Bezahlen mit Kreditkarte oder die Benutzung des Telefons, durch Computer aufgezeichnet. Dabei werden gewöhnlich alle verfügbaren Parameter abgespeichert, wodurch hochdimensionale Datensätze entstehen. Die Daten werden gesammelt, da sie wertvolle Informationen enthalten, die einen Wettbewerbsvorteil bieten können. Das Finden der wertvollen Informationen in den großen Datenmengen ist aber keine leichte Aufgabe. Heutige Datenbankmanagementsysteme können nur kleine Teilmengen dieser riesigen Datenmengen darstellen. Werden die Daten zum Beispiel in textueller Form ausgegeben, können höchstens ein paar hundert Zeilen auf dem Bildschirm dargestellt werden. Bei Millionen von Datensätzen ist dies aber nur ein Tropfen auf den heißen Stein.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  5. Heyer, G.; Läuter, M.; Quasthoff, U.; Wolff, C.: Texttechnologische Anwendungen am Beispiel Text Mining (2000) 0.01
    0.009673672 = product of:
      0.029021014 = sum of:
        0.029021014 = weight(_text_:der in 5565) [ClassicSimilarity], result of:
          0.029021014 = score(doc=5565,freq=6.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.25648075 = fieldWeight in 5565, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5565)
      0.33333334 = coord(1/3)
    
    Abstract
    Die zunehmende Menge von Informationen und deren weltweite Verfügbarkeit auf der Basis moderner Internet Technologie machen es erforderlich, Informationen nach inhaltlichen Kriterien zu strukturieren und zu bewerten sowie nach inhaltlichen Kriterien weiter zu verarbeiten. Vom Standpunkt des Benutzers aus sind dabei folgende Fälle zu unterscheiden: Handelt es sich bei den gesuchten Informationen um strukturierle Daten (z.B. in einer SQL-Datenbank) oder unstrukturierte Daten (z.B. grosse Texte)? Ist bekannt, welche Daten benötigt werden und wie sie zu finden sind? Oder ist vor dein Zugriff auf die Daten noch nicht bekannt welche Ergebnisse erwartet werden?
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  6. Drees, B.: Text und data mining : Herausforderungen und Möglichkeiten für Bibliotheken (2016) 0.01
    0.009673672 = product of:
      0.029021014 = sum of:
        0.029021014 = weight(_text_:der in 3952) [ClassicSimilarity], result of:
          0.029021014 = score(doc=3952,freq=6.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.25648075 = fieldWeight in 3952, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3952)
      0.33333334 = coord(1/3)
    
    Abstract
    Text und Data Mining (TDM) gewinnt als wissenschaftliche Methode zunehmend an Bedeutung und stellt wissenschaftliche Bibliotheken damit vor neue Herausforderungen, bietet gleichzeitig aber auch neue Möglichkeiten. Der vorliegende Beitrag gibt einen Überblick über das Thema TDM aus bibliothekarischer Sicht. Hierzu wird der Begriff Text und Data Mining im Kontext verwandter Begriffe diskutiert sowie Ziele, Aufgaben und Methoden von TDM erläutert. Diese werden anhand beispielhafter TDM-Anwendungen in Wissenschaft und Forschung illustriert. Ferner werden technische und rechtliche Probleme und Hindernisse im TDM-Kontext dargelegt. Abschließend wird die Relevanz von TDM für Bibliotheken, sowohl in ihrer Rolle als Informationsvermittler und -anbieter als auch als Anwender von TDM-Methoden, aufgezeigt. Zudem wurde im Rahmen dieser Arbeit eine Befragung der Betreiber von Dokumentenservern an Bibliotheken in Deutschland zum aktuellen Umgang mit TDM durchgeführt, die zeigt, dass hier noch viel Ausbaupotential besteht. Die dem Artikel zugrunde liegenden Forschungsdaten sind unter dem DOI 10.11588/data/10090 publiziert.
  7. Borgelt, C.; Kruse, R.: Unsicheres Wissen nutzen (2002) 0.01
    0.009308494 = product of:
      0.02792548 = sum of:
        0.02792548 = weight(_text_:der in 1104) [ClassicSimilarity], result of:
          0.02792548 = score(doc=1104,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.2467987 = fieldWeight in 1104, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1104)
      0.33333334 = coord(1/3)
    
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.82-84
  8. Mandl, T.: Text mining und data minig (2013) 0.01
    0.009308494 = product of:
      0.02792548 = sum of:
        0.02792548 = weight(_text_:der in 713) [ClassicSimilarity], result of:
          0.02792548 = score(doc=713,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.2467987 = fieldWeight in 713, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=713)
      0.33333334 = coord(1/3)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  9. Analytische Informationssysteme : Data Warehouse, On-Line Analytical Processing, Data Mining (1999) 0.01
    0.009214939 = product of:
      0.027644815 = sum of:
        0.027644815 = weight(_text_:der in 1381) [ClassicSimilarity], result of:
          0.027644815 = score(doc=1381,freq=4.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.24431825 = fieldWeight in 1381, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1381)
      0.33333334 = coord(1/3)
    
    Abstract
    Neben den operativen Informationssystemen, welche die Abwicklung des betrieblichen Tagesgeschäftes unterstützen, treten heute verstärkt Informationssysteme für analytische Aufgaben der Fach- und Führungskräfte in den Vordergrund. In fast allen Unternehmen werden derzeit Begriffe und Konzepte wie Data Warehouse, On-Line Analytical Processing und Data Mining diskutiert und die zugehörigen Produkte evaluiert. Vor diesem Hintergrund zielt der vorliegende Sammelband darauf ab, einen aktuellen Überblick über Technologien, Produkte und Trends zu bieten. Als Entscheidungsgrundlage für den Praktiker beim Aufbau und Einsatz derartiger analytischer Informationssysteme können die unterschiedlichen Beiträge aus Wirtschaft und Wissenschaft wertvolle Hilfestellung leisten.
  10. Wiegmann, S.: Hättest du die Titanic überlebt? : Eine kurze Einführung in das Data Mining mit freier Software (2023) 0.01
    0.009214939 = product of:
      0.027644815 = sum of:
        0.027644815 = weight(_text_:der in 876) [ClassicSimilarity], result of:
          0.027644815 = score(doc=876,freq=4.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.24431825 = fieldWeight in 876, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
      0.33333334 = coord(1/3)
    
    Abstract
    Am 10. April 1912 ging Elisabeth Walton Allen an Bord der "Titanic", um ihr Hab und Gut nach England zu holen. Eines Nachts wurde sie von ihrer aufgelösten Tante geweckt, deren Kajüte unter Wasser stand. Wie steht es um Elisabeths Chancen und hätte man selbst das Unglück damals überlebt? Das Titanic-Orakel ist eine algorithmusbasierte App, die entsprechende Prognosen aufstellt und im Rahmen des Kurses "Data Science" am Department Information der HAW Hamburg entstanden ist. Dieser Beitrag zeigt Schritt für Schritt, wie die App unter Verwendung freier Software entwickelt wurde. Code und Daten werden zur Nachnutzung bereitgestellt.
  11. Ester, M.; Sander, J.: Knowledge discovery in databases : Techniken und Anwendungen (2000) 0.01
    0.007446795 = product of:
      0.022340383 = sum of:
        0.022340383 = weight(_text_:der in 1374) [ClassicSimilarity], result of:
          0.022340383 = score(doc=1374,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.19743896 = fieldWeight in 1374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1374)
      0.33333334 = coord(1/3)
    
    Abstract
    Knowledge Discovery in Databases (KDD) ist ein aktuelles Forschungs- und Anwendungsgebiet der Informatik. Ziel des KDD ist es, selbständig entscheidungsrelevante, aber bisher unbekannte Zusammenhänge und Verknüpfungen in den Daten großer Datenmengen zu entdecken und dem Analysten oder dem Anwender in übersichtlicher Form zu präsentieren. Die Autoren stellen die Techniken und Anwendungen dieses interdisziplinären Gebiets anschaulich dar.
  12. Brückner, T.; Dambeck, H.: Sortierautomaten : Grundlagen der Textklassifizierung (2003) 0.01
    0.007446795 = product of:
      0.022340383 = sum of:
        0.022340383 = weight(_text_:der in 2398) [ClassicSimilarity], result of:
          0.022340383 = score(doc=2398,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.19743896 = fieldWeight in 2398, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2398)
      0.33333334 = coord(1/3)
    
  13. Schwartz, D.: Graphische Datenanalyse für digitale Bibliotheken : Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente (2006) 0.01
    0.006515946 = product of:
      0.019547837 = sum of:
        0.019547837 = weight(_text_:der in 30) [ClassicSimilarity], result of:
          0.019547837 = score(doc=30,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.17275909 = fieldWeight in 30, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=30)
      0.33333334 = coord(1/3)
    
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  14. Mandl, T.: Text Mining und Data Mining (2023) 0.01
    0.006515946 = product of:
      0.019547837 = sum of:
        0.019547837 = weight(_text_:der in 774) [ClassicSimilarity], result of:
          0.019547837 = score(doc=774,freq=2.0), product of:
            0.11315084 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.050654724 = queryNorm
            0.17275909 = fieldWeight in 774, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=774)
      0.33333334 = coord(1/3)
    
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Years

Types

  • a 24
  • el 8
  • m 6
  • s 4
  • p 1
  • x 1
  • More… Less…