Search (724 results, page 1 of 37)

  • × language_ss:"d"
  • × year_i:[2000 TO 2010}
  1. Lackes, R.; Tillmanns, C.: Data Mining für die Unternehmenspraxis : Entscheidungshilfen und Fallstudien mit führenden Softwarelösungen (2006) 0.06
    0.063524835 = product of:
      0.12704967 = sum of:
        0.12704967 = sum of:
          0.08466032 = weight(_text_:data in 1383) [ClassicSimilarity], result of:
            0.08466032 = score(doc=1383,freq=12.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.513453 = fieldWeight in 1383, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.046875 = fieldNorm(doc=1383)
          0.04238935 = weight(_text_:22 in 1383) [ClassicSimilarity], result of:
            0.04238935 = score(doc=1383,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.23214069 = fieldWeight in 1383, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1383)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch richtet sich an Praktiker in Unternehmen, die sich mit der Analyse von großen Datenbeständen beschäftigen. Nach einem kurzen Theorieteil werden vier Fallstudien aus dem Customer Relationship Management eines Versandhändlers bearbeitet. Dabei wurden acht führende Softwarelösungen verwendet: der Intelligent Miner von IBM, der Enterprise Miner von SAS, Clementine von SPSS, Knowledge Studio von Angoss, der Delta Miner von Bissantz, der Business Miner von Business Object und die Data Engine von MIT. Im Rahmen der Fallstudien werden die Stärken und Schwächen der einzelnen Lösungen deutlich, und die methodisch-korrekte Vorgehensweise beim Data Mining wird aufgezeigt. Beides liefert wertvolle Entscheidungshilfen für die Auswahl von Standardsoftware zum Data Mining und für die praktische Datenanalyse.
    Content
    Modelle, Methoden und Werkzeuge: Ziele und Aufbau der Untersuchung.- Grundlagen.- Planung und Entscheidung mit Data-Mining-Unterstützung.- Methoden.- Funktionalität und Handling der Softwarelösungen. Fallstudien: Ausgangssituation und Datenbestand im Versandhandel.- Kundensegmentierung.- Erklärung regionaler Marketingerfolge zur Neukundengewinnung.Prognose des Customer Lifetime Values.- Selektion von Kunden für eine Direktmarketingaktion.- Welche Softwarelösung für welche Entscheidung?- Fazit und Marktentwicklungen.
    Date
    22. 3.2008 14:46:06
    Theme
    Data Mining
  2. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.06
    0.05521311 = product of:
      0.11042622 = sum of:
        0.11042622 = product of:
          0.33127865 = sum of:
            0.33127865 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.33127865 = score(doc=140,freq=2.0), product of:
                0.44208363 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.052144732 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  3. Handbuch der Künstlichen Intelligenz (2003) 0.04
    0.04488854 = product of:
      0.08977708 = sum of:
        0.08977708 = sum of:
          0.040322836 = weight(_text_:data in 2916) [ClassicSimilarity], result of:
            0.040322836 = score(doc=2916,freq=2.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.24455236 = fieldWeight in 2916, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2916)
          0.049454242 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
            0.049454242 = score(doc=2916,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.2708308 = fieldWeight in 2916, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2916)
      0.5 = coord(1/2)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    Date
    21. 3.2008 19:10:22
  4. RAK-NBM : Interpretationshilfe zu NBM 3b,3 (2000) 0.04
    0.039965063 = product of:
      0.07993013 = sum of:
        0.07993013 = product of:
          0.15986025 = sum of:
            0.15986025 = weight(_text_:22 in 4362) [ClassicSimilarity], result of:
              0.15986025 = score(doc=4362,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.8754574 = fieldWeight in 4362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4362)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2000 19:22:27
  5. Diederichs, A.: Wissensmanagement ist Macht : Effektiv und kostenbewußt arbeiten im Informationszeitalter (2005) 0.04
    0.039965063 = product of:
      0.07993013 = sum of:
        0.07993013 = product of:
          0.15986025 = sum of:
            0.15986025 = weight(_text_:22 in 3211) [ClassicSimilarity], result of:
              0.15986025 = score(doc=3211,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.8754574 = fieldWeight in 3211, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=3211)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 2.2005 9:16:22
  6. Keim, D.A.: Data Mining mit bloßem Auge (2002) 0.04
    0.038641974 = product of:
      0.07728395 = sum of:
        0.07728395 = product of:
          0.1545679 = sum of:
            0.1545679 = weight(_text_:data in 1086) [ClassicSimilarity], result of:
              0.1545679 = score(doc=1086,freq=10.0), product of:
                0.16488427 = queryWeight, product of:
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.052144732 = queryNorm
                0.93743265 = fieldWeight in 1086, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1086)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Visualisierungen, die möglichst instruktive grafische Darstellung von Daten, ist wesentlicher Bestandteil des Data Mining
    Footnote
    Teil eines Heftthemas 'Data Mining'
    Series
    Data Mining
    Theme
    Data Mining
  7. Lautenschlager, M.; Sens, I.: Konzept zur Zitierfähigkeit wissenschaftlicher Primärdaten (2003) 0.04
    0.03847589 = product of:
      0.07695178 = sum of:
        0.07695178 = sum of:
          0.03456243 = weight(_text_:data in 2007) [ClassicSimilarity], result of:
            0.03456243 = score(doc=2007,freq=2.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.2096163 = fieldWeight in 2007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
          0.04238935 = weight(_text_:22 in 2007) [ClassicSimilarity], result of:
            0.04238935 = score(doc=2007,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.23214069 = fieldWeight in 2007, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2007)
      0.5 = coord(1/2)
    
    Abstract
    Wissenschaftliche Primärdaten werden hier verstanden als Primärdaten gekoppelt mit ihrer bibliographischen Beschreibung (Metadaten). Im wissenschaftlichen Bereich besteht zwar grundsätzlich Bereitschaft, Daten zur Verfügung zu stellen, aber die erforderliche Mehrarbeit für Aufbereitung, Kontextdokumentation und Oualitätssicherung wird üblicherweise nicht anerkannt. Die klassische Form der Verbreitung wissenschaftlicher Ergebnisse ist ihre Veröffentlichung in Fachzeitschriften. Derartige Zeitschriftenartikel werden im "Citation Index" erfasst. Dieser Index wird zur Leistungsbewertung von Wissenschaftlern herangezogen. Datenveröffentlichungen werden darin bisher nicht berücksichtigt. Arbeitshypothese ist ein "Scientific and Technical Data - DOI" in der Verantwortung der Wissenschaften. Eine solche Organisation von Primärdaten-DOI im Bereich der Wissenschaften erlaubt beispielsweise Zugangsregelungen ohne kommerziellen Hintergrund und das Urheberrecht könnte bei den Datenproduzenten verbleiben. Im Rahmen einer DFG finanzierten CODATA-Arbeitsgruppe wurden Defizite in der Verfügbarkeit wissenschaftlicher Daten, insbesondere zur interdisziplinären Datennutzung, identifiziert und die Ursachen analysiert. Ein Konzept zur Verbesserung der elektronischen Datenbereitstellung, basierend auf dem DOI, wird vorgestellt und Möglichkeiten zur Umsetzung aufgezeigt. (Abkürzungen im Text sind im Anhang aufgelistet.)
    Date
    28.11.2004 13:09:22
  8. Wan, X.; Yang, J.; Xiao, J.: Incorporating cross-document relationships between sentences for single document summarizations (2006) 0.04
    0.03847589 = product of:
      0.07695178 = sum of:
        0.07695178 = sum of:
          0.03456243 = weight(_text_:data in 2421) [ClassicSimilarity], result of:
            0.03456243 = score(doc=2421,freq=2.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.2096163 = fieldWeight in 2421, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.046875 = fieldNorm(doc=2421)
          0.04238935 = weight(_text_:22 in 2421) [ClassicSimilarity], result of:
            0.04238935 = score(doc=2421,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.23214069 = fieldWeight in 2421, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2421)
      0.5 = coord(1/2)
    
    Abstract
    Graph-based ranking algorithms have recently been proposed for single document summarizations and such algorithms evaluate the importance of a sentence by making use of the relationships between sentences in the document in a recursive way. In this paper, we investigate using other related or relevant documents to improve summarization of one single document based on the graph-based ranking algorithm. In addition to the within-document relationships between sentences in the specified document, the cross-document relationships between sentences in different documents are also taken into account in the proposed approach. We evaluate the performance of the proposed approach on DUC 2002 data with the ROUGE metric and results demonstrate that the cross-document relationships between sentences in different but related documents can significantly improve the performance of single document summarization.
    Source
    Research and advanced technology for digital libraries : 10th European conference, proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006
  9. Mönch, C.; Aalberg, T.: Automatic conversion from MARC to FRBR (2003) 0.04
    0.038028337 = product of:
      0.076056674 = sum of:
        0.076056674 = sum of:
          0.040732216 = weight(_text_:data in 2422) [ClassicSimilarity], result of:
            0.040732216 = score(doc=2422,freq=4.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.24703519 = fieldWeight in 2422, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2422)
          0.035324458 = weight(_text_:22 in 2422) [ClassicSimilarity], result of:
            0.035324458 = score(doc=2422,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.19345059 = fieldWeight in 2422, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2422)
      0.5 = coord(1/2)
    
    Abstract
    Catalogs have for centuries been the main tool that enabled users to search for items in a library by author, title, or subject. A catalog can be interpreted as a set of bibliographic records, where each record acts as a surrogate for a publication. Every record describes a specific publication and contains the data that is used to create the indexes of search systems and the information that is presented to the user. Bibliographic records are often captured and exchanged by the use of the MARC format. Although there are numerous rdquodialectsrdquo of the MARC format in use, they are usually crafted on the same basis and are interoperable with each other -to a certain extent. The data model of a MARC-based catalog, however, is rdquo[...] extremely non-normalized with excessive replication of datardquo [1]. For instance, a literary work that exists in numerous editions and translations is likely to yield a large result set because each edition or translation is represented by an individual record, that is unrelated to other records that describe the same work.
    Source
    Research and advanced technology for digital libraries : 7th European Conference, proceedings / ECDL 2003, Trondheim, Norway, August 17-22, 2003
  10. Pesch, K.: ¬Eine gigantische Informationsfülle : "Brockhaus multimedial 2004" kann jedoch nicht rundum überzeugen (2003) 0.03
    0.03496943 = product of:
      0.06993886 = sum of:
        0.06993886 = product of:
          0.13987772 = sum of:
            0.13987772 = weight(_text_:22 in 502) [ClassicSimilarity], result of:
              0.13987772 = score(doc=502,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.76602525 = fieldWeight in 502, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=502)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
    22. 9.2003 10:02:00
  11. Wrobel, S.: Lern- und Entdeckungsverfahren (2002) 0.03
    0.03456243 = product of:
      0.06912486 = sum of:
        0.06912486 = product of:
          0.13824973 = sum of:
            0.13824973 = weight(_text_:data in 1105) [ClassicSimilarity], result of:
              0.13824973 = score(doc=1105,freq=8.0), product of:
                0.16488427 = queryWeight, product of:
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.052144732 = queryNorm
                0.8384652 = fieldWeight in 1105, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1105)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Betrügerische Kreditkartenkäufe, besonders fähige Basketballspieler und umweltbewusste Saftverkäufer ausfindig machen - Data-Mining-Verfahren lernen selbständig das Wesentliche
    Footnote
    Teil eines Heftthemas 'Data Mining'
    Series
    Data Mining
    Theme
    Data Mining
  12. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.03
    0.03450819 = product of:
      0.06901638 = sum of:
        0.06901638 = product of:
          0.20704915 = sum of:
            0.20704915 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.20704915 = score(doc=5895,freq=2.0), product of:
                0.44208363 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.052144732 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  13. Nitzsche, J.: Inhaltserschließung von medizinischen Internetquellen und Multimediaprodukten (2001) 0.03
    0.032063242 = product of:
      0.064126484 = sum of:
        0.064126484 = sum of:
          0.028802028 = weight(_text_:data in 5674) [ClassicSimilarity], result of:
            0.028802028 = score(doc=5674,freq=2.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.17468026 = fieldWeight in 5674, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5674)
          0.035324458 = weight(_text_:22 in 5674) [ClassicSimilarity], result of:
            0.035324458 = score(doc=5674,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.19345059 = fieldWeight in 5674, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5674)
      0.5 = coord(1/2)
    
    Abstract
    In zunehmendem Maße finden sich medizinische Informationen ausschließlich im Internet und auf Multimediaprodukten. Dies erhöht die Notwendigkeit einer inhaltlichen Erschließung dieser Medien, die über die Möglichkeiten der Suchmaschinen hinausgeht. Momentan erschließen medizinische Bibliotheken die Neuen Medien mit den traditionellen Mitteln der klassischen Inhaltserschließung konventioneller Medien: systematische Erschließung mit Klassifikationen (NLM-Klassifikation), im Internet meist in der Form strukturierter Listen, und verbale Sacherschließung mit Fachthesaurl (meist MESH oder RSWK), im Internet ergänzt um standardisierte Metadaten (wie Dublin Core DC, Learning Object Data LOD, Platform for Internet Content Selection PICS). Dies geschieht mit großem Aufwand auch deshalb, um eine Kompatibilität der Erschließung und Suchbarkeit von konventionellen und Neuen Medien sicherzustellen, obwohl die Neuen Medien eher wenig und nur in einem bestimmten Kontext genutzt werden. Hängt die geringe Nutzung der Neuen Medien möglicherweise mit einer inadäquaten Evaluierung und Systematisierung zusammen? Vor- und Nachteile der Erschließung der Neuen Medien durch systematische und verbale Klassifikation werden dargestellt. Daraus werden Empfehlungen entwickelt, welchen Anforderungen Erschließungsinstrumente für Neue Medien genügen sollten und welche Konsequenzen sich daraus für die zukünftige Inhaltserschließung Neuer Medien im Sinne einer höheren Nutzbarkeit und Nutzung ergeben (kooperative Erschließung, Bildung von Kompetenzzentren, Entwicklung neuer Erschließungsinstrumente)
    Date
    22. 3.2001 13:19:39
  14. Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002) 0.03
    0.031762417 = product of:
      0.063524835 = sum of:
        0.063524835 = sum of:
          0.04233016 = weight(_text_:data in 1178) [ClassicSimilarity], result of:
            0.04233016 = score(doc=1178,freq=12.0), product of:
              0.16488427 = queryWeight, product of:
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.052144732 = queryNorm
              0.2567265 = fieldWeight in 1178, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                3.1620505 = idf(docFreq=5088, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
          0.021194674 = weight(_text_:22 in 1178) [ClassicSimilarity], result of:
            0.021194674 = score(doc=1178,freq=2.0), product of:
              0.18260197 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052144732 = queryNorm
              0.116070345 = fieldWeight in 1178, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=1178)
      0.5 = coord(1/2)
    
    Content
    "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
    Jede Kasse schickt die Daten zu Stornos, Rückgaben, Korrekturen und dergleichen an eine zentrale Datenbank. Aus den Informationen errechnet das Programm Kassiererprofile. Wessen Arbeit stark Durchschnitt abweicht, macht sich verdächtig. Die Kriterien" legen im Einzelnen die Revisionsabteilungen fest, doch generell gilt: "Bei Auffälligkeiten wie überdurchschnittlichvielenStornierungen, Off nen der Kassenschublade ohne Verkauf nach einem Storno oder Warenrücknahmen ohne Kassenbon, können die Vorgänge nachträglich einzelnen Personen zugeordnet werden", sagt Rene Schiller, Marketing-Chef des Lord-Herstellers Logware. Ein Kündigungsgrund ist eine solche Datensammlung vor Gericht nicht. Doch auf der Basis können Unternehmen gezielt Detektive einsetzen. Oder sie konfrontieren die Mitarbeiter mit dem Material; woraufhin Schuldige meist gestehen. Wilke sieht Programme wie Lord kritisch:"Jeder, der in dem Raster auffällt, kann ein potenzieller Betrüger oder Dieb sein und verdient besondere Beobachtung." Dabei könne man vom Standard abweichen, weil man unausgeschlafen und deshalb unkonzentriert sei. Hier tut sich für Wilke die Gefahr technisierter Leistungskontrolle auf. "Es ist ja nicht schwierig, mit den Programmen zu berechnen, wie lange beispielsweise das Kassieren eines Samstagseinkaufs durchschnittlich dauert." Die Betriebsräte - ihre Zustimmung ist beim Einsatz technischer Kon trolleinrichtungen nötig - verurteilen die wertende Software weniger eindeutig. Im Gegenteil: Bei Kaufhof und Edeka haben sie dem Einsatz zugestimmt. Denn: "Die wollen ja nicht, dass ganze Abteilungen wegen Inventurverlusten oder dergleichen unter Generalverdacht fallen", erklärt Gewerkschaftler Wilke: "Angesichts der Leistungen kommerzieller Data-Mining-Programme verblüfft es, dass in den Vereinigten Staaten das "Information Awareness Office" noch drei Jahre für Forschung und Erprobung der eigenen Programme veranschlagt. 2005 sollen frühe Prototypen zur Terroristensuche einesgetz werden. Doch schon jetzt regt sich Protest. Datenschützer wie Marc Botenberg vom Informationszentrum für Daten schutz sprechen vom "ehrgeizigsten öffentlichen Überwachungssystem, das je vorgeschlagen wurde". Sie warnen besonders davor, Daten aus der Internetnutzung und private Mails auszuwerten. Das Verteidigungsministerium rudert zurück. Man denke nicht daran, über die Software im Inland aktiv zu werden. "Das werden die Geheimdienste, die Spionageabwehr und die Strafverfolger tun", sagt Unterstaatssekretär Edward Aldridge. Man werde während der Entwicklung und der Tests mit konstruierten und einigen - aus Sicht der Datenschützer unbedenklichen - realen Informationen arbeiten. Zu denken gibt jedoch Aldriges Antwort auf die Frage, warum so viel Geld für die Entwicklung von Übersetzungssoftware eingeplant ist: Damit man Datenbanken in anderen Sprachen nutzen könne - sofern man auf sie rechtmäßigen Zugriff bekommt."
    Theme
    Data Mining
  15. dpa: Struktur des Denkorgans wird bald entschlüsselt sein (2000) 0.03
    0.029973798 = product of:
      0.059947595 = sum of:
        0.059947595 = product of:
          0.11989519 = sum of:
            0.11989519 = weight(_text_:22 in 3952) [ClassicSimilarity], result of:
              0.11989519 = score(doc=3952,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.6565931 = fieldWeight in 3952, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3952)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    17. 7.1996 9:33:22
    22. 7.2000 19:05:41
  16. IST 99 Helsinki : Gestaltung der Informationsgesellschaft für Europa (2000) 0.03
    0.029973798 = product of:
      0.059947595 = sum of:
        0.059947595 = product of:
          0.11989519 = sum of:
            0.11989519 = weight(_text_:22 in 4363) [ClassicSimilarity], result of:
              0.11989519 = score(doc=4363,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.6565931 = fieldWeight in 4363, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4363)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Bericht über die 'Europäische Konferenz über Technologie der Informationsgesellschaft, 22.-24.11.1999, Helsinki'
    Date
    22. 1.2000 19:26:00
  17. Zschunke, P.; Svensson, P.: Bücherbrett für alle Fälle : Geräte-Speicher fassen Tausende von Seiten (2000) 0.03
    0.029973798 = product of:
      0.059947595 = sum of:
        0.059947595 = product of:
          0.11989519 = sum of:
            0.11989519 = weight(_text_:22 in 4823) [ClassicSimilarity], result of:
              0.11989519 = score(doc=4823,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.6565931 = fieldWeight in 4823, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4823)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    3. 5.1997 8:44:22
    18. 6.2000 9:11:22
  18. Riesthuis, G.J.A.: Some thoughts about the format of the Master Reference File database (2000) 0.03
    0.029973798 = product of:
      0.059947595 = sum of:
        0.059947595 = product of:
          0.11989519 = sum of:
            0.11989519 = weight(_text_:22 in 6405) [ClassicSimilarity], result of:
              0.11989519 = score(doc=6405,freq=4.0), product of:
                0.18260197 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052144732 = queryNorm
                0.6565931 = fieldWeight in 6405, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6405)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Extensions and corrections to the UDC. 22(2000), S.15-22
  19. Kruse, R.; Borgelt, C.: Suche im Datendschungel (2002) 0.03
    0.029931946 = product of:
      0.05986389 = sum of:
        0.05986389 = product of:
          0.11972778 = sum of:
            0.11972778 = weight(_text_:data in 1087) [ClassicSimilarity], result of:
              0.11972778 = score(doc=1087,freq=6.0), product of:
                0.16488427 = queryWeight, product of:
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.052144732 = queryNorm
                0.7261322 = fieldWeight in 1087, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1087)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Teil eines Heftthemas 'Data Mining'
    Series
    Data Mining
    Theme
    Data Mining
  20. Decker, B.: Data Mining in Öffentlichen Bibliotheken (2000) 0.03
    0.028512552 = product of:
      0.057025105 = sum of:
        0.057025105 = product of:
          0.11405021 = sum of:
            0.11405021 = weight(_text_:data in 4782) [ClassicSimilarity], result of:
              0.11405021 = score(doc=4782,freq=4.0), product of:
                0.16488427 = queryWeight, product of:
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.052144732 = queryNorm
                0.69169855 = fieldWeight in 4782, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1620505 = idf(docFreq=5088, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4782)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Data Mining

Languages

Types

  • a 585
  • m 111
  • s 27
  • el 17
  • x 14
  • i 8
  • b 2
  • n 1
  • More… Less…

Themes

Subjects

Classifications