Search (31 results, page 2 of 2)

  • × theme_ss:"Data Mining"
  • × year_i:[2000 TO 2010}
  1. Keim, D.A.: Data Mining mit bloßem Auge (2002) 0.00
    0.0036393893 = product of:
      0.014557557 = sum of:
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 1086) [ClassicSimilarity], result of:
              0.029115114 = score(doc=1086,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 1086, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1086)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.88-91
  2. Kruse, R.; Borgelt, C.: Suche im Datendschungel (2002) 0.00
    0.0036393893 = product of:
      0.014557557 = sum of:
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 1087) [ClassicSimilarity], result of:
              0.029115114 = score(doc=1087,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 1087, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1087)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.80-81
  3. Wrobel, S.: Lern- und Entdeckungsverfahren (2002) 0.00
    0.0036393893 = product of:
      0.014557557 = sum of:
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 1105) [ClassicSimilarity], result of:
              0.029115114 = score(doc=1105,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 1105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1105)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.85-87
  4. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.00
    0.0036393893 = product of:
      0.014557557 = sum of:
        0.014557557 = product of:
          0.029115114 = sum of:
            0.029115114 = weight(_text_:der in 5218) [ClassicSimilarity], result of:
              0.029115114 = score(doc=5218,freq=18.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.29615843 = fieldWeight in 5218, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5218)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  5. Tiefschürfen in Datenbanken (2002) 0.00
    0.0034312492 = product of:
      0.013724997 = sum of:
        0.013724997 = product of:
          0.027449993 = sum of:
            0.027449993 = weight(_text_:der in 996) [ClassicSimilarity], result of:
              0.027449993 = score(doc=996,freq=4.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.27922085 = fieldWeight in 996, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=996)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Ein Einkauf im Supermarkt, ein Telefongespräch, ein Klick im Internet: Die Spuren solcher Allerweltsaktionen häufen sich zu Datengebirgen ungeheuren Ausmaßes. Darin noch das Wesentlich - was immer das sein mag - zu finden, ist die Aufgabe des noch jungen Wissenschaftszweiges Data Mining, der mit offiziellem Namen "Wissensentdeckung in Datenbanken" heißt
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.80-91
  6. Keim, D.A.: Datenvisualisierung und Data Mining (2004) 0.00
    0.003390801 = product of:
      0.013563204 = sum of:
        0.013563204 = product of:
          0.027126407 = sum of:
            0.027126407 = weight(_text_:der in 2931) [ClassicSimilarity], result of:
              0.027126407 = score(doc=2931,freq=10.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.27592933 = fieldWeight in 2931, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2931)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die rasante technologische Entwicklung der letzten zwei Jahrzehnte ermöglicht heute die persistente Speicherung riesiger Datenmengen durch den Computer. Forscher an der Universität Berkeley haben berechnet, dass jedes Jahr ca. 1 Exabyte (= 1 Million Terabyte) Daten generiert werden - ein großer Teil davon in digitaler Form. Das bedeutet aber, dass in den nächsten drei Jahren mehr Daten generiert werden als in der gesamten menschlichen Entwicklung zuvor. Die Daten werden oft automatisch mit Hilfe von Sensoren und Überwachungssystemen aufgezeichnet. So werden beispielsweise alltägliche Vorgänge des menschlichen Lebens, wie das Bezahlen mit Kreditkarte oder die Benutzung des Telefons, durch Computer aufgezeichnet. Dabei werden gewöhnlich alle verfügbaren Parameter abgespeichert, wodurch hochdimensionale Datensätze entstehen. Die Daten werden gesammelt, da sie wertvolle Informationen enthalten, die einen Wettbewerbsvorteil bieten können. Das Finden der wertvollen Informationen in den großen Datenmengen ist aber keine leichte Aufgabe. Heutige Datenbankmanagementsysteme können nur kleine Teilmengen dieser riesigen Datenmengen darstellen. Werden die Daten zum Beispiel in textueller Form ausgegeben, können höchstens ein paar hundert Zeilen auf dem Bildschirm dargestellt werden. Bei Millionen von Datensätzen ist dies aber nur ein Tropfen auf den heißen Stein.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  7. Heyer, G.; Läuter, M.; Quasthoff, U.; Wolff, C.: Texttechnologische Anwendungen am Beispiel Text Mining (2000) 0.00
    0.003151804 = product of:
      0.012607216 = sum of:
        0.012607216 = product of:
          0.025214432 = sum of:
            0.025214432 = weight(_text_:der in 5565) [ClassicSimilarity], result of:
              0.025214432 = score(doc=5565,freq=6.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.25648075 = fieldWeight in 5565, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5565)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die zunehmende Menge von Informationen und deren weltweite Verfügbarkeit auf der Basis moderner Internet Technologie machen es erforderlich, Informationen nach inhaltlichen Kriterien zu strukturieren und zu bewerten sowie nach inhaltlichen Kriterien weiter zu verarbeiten. Vom Standpunkt des Benutzers aus sind dabei folgende Fälle zu unterscheiden: Handelt es sich bei den gesuchten Informationen um strukturierle Daten (z.B. in einer SQL-Datenbank) oder unstrukturierte Daten (z.B. grosse Texte)? Ist bekannt, welche Daten benötigt werden und wie sie zu finden sind? Oder ist vor dein Zugriff auf die Daten noch nicht bekannt welche Ergebnisse erwartet werden?
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  8. Borgelt, C.; Kruse, R.: Unsicheres Wissen nutzen (2002) 0.00
    0.0030328245 = product of:
      0.012131298 = sum of:
        0.012131298 = product of:
          0.024262596 = sum of:
            0.024262596 = weight(_text_:der in 1104) [ClassicSimilarity], result of:
              0.024262596 = score(doc=1104,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.2467987 = fieldWeight in 1104, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1104)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Spektrum der Wissenschaft. 2002, H.11, S.82-84
  9. Brückner, T.; Dambeck, H.: Sortierautomaten : Grundlagen der Textklassifizierung (2003) 0.00
    0.0024262597 = product of:
      0.009705039 = sum of:
        0.009705039 = product of:
          0.019410077 = sum of:
            0.019410077 = weight(_text_:der in 2398) [ClassicSimilarity], result of:
              0.019410077 = score(doc=2398,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.19743896 = fieldWeight in 2398, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2398)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  10. Schwartz, D.: Graphische Datenanalyse für digitale Bibliotheken : Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente (2006) 0.00
    0.002122977 = product of:
      0.008491908 = sum of:
        0.008491908 = product of:
          0.016983816 = sum of:
            0.016983816 = weight(_text_:der in 30) [ClassicSimilarity], result of:
              0.016983816 = score(doc=30,freq=2.0), product of:
                0.098309256 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.044010527 = queryNorm
                0.17275909 = fieldWeight in 30, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=30)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Source
    Vom Wandel der Wissensorganisation im Informationszeitalter: Festschrift für Walther Umstätter zum 65. Geburtstag, hrsg. von P. Hauke u. K. Umlauf
  11. Information visualization in data mining and knowledge discovery (2002) 0.00
    0.0014907048 = product of:
      0.0059628193 = sum of:
        0.0059628193 = product of:
          0.011925639 = sum of:
            0.011925639 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.011925639 = score(doc=1789,freq=2.0), product of:
                0.15411738 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.044010527 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    23. 3.2008 19:10:22

Languages

  • d 19
  • e 12

Types

  • a 24
  • m 6
  • s 3
  • el 2
  • x 1
  • More… Less…