Search (11 results, page 1 of 1)

  • × classification_ss:"54.72 / Künstliche Intelligenz"
  1. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.02
    0.024523366 = product of:
      0.049046732 = sum of:
        0.049046732 = product of:
          0.098093465 = sum of:
            0.098093465 = weight(_text_:buch in 4622) [ClassicSimilarity], result of:
              0.098093465 = score(doc=4622,freq=8.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.41095015 = fieldWeight in 4622, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4622)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
  2. Bibel, W.; Hölldobler, S.; Schaub, T.: Wissensrepräsentation und Inferenz : eine grundlegende Einführung (1993) 0.02
    0.021675799 = product of:
      0.043351598 = sum of:
        0.043351598 = product of:
          0.086703196 = sum of:
            0.086703196 = weight(_text_:buch in 3389) [ClassicSimilarity], result of:
              0.086703196 = score(doc=3389,freq=4.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.36323205 = fieldWeight in 3389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3389)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Gebiet der Wissenspräsentation und Inferenz umfaßt einen zentralen Bereich der Intellektik, d.h. des Gebietes der Künstlichen Intelligenz und der Kognitionswissenschaft. Es behandelt einerseits die Fragen nach einer formalen Beschreibung von Wissen jeglicher Art, besonders unter dem Aspekt einer maschinellen Verarbeitung in modernen Computern. Andererseits versucht es, das Alltagsschließen des Menschen so zu formalisieren, daß logische Schlüsse auch von Maschinen ausgeführt werden könnten. Das Buch gibt eine ausführliche Einführung in dieses umfangreiche Gebiet. Dem Studenten dient es im Rahmen einer solchen Vorlesung oder zum Selbststudium als umfassende Unterlage, und der Praktiker zieht einen großen Gewinn aus der Lektüre dieses modernen Stoffes, der in dieser Breite bisher nicht verfügbar war. Darüber hinaus leistet das Buch einen wichtigen Beitrag zur Forschung dadurch, daß viele Ansätze auf diesem Gebiet in ihren inneren Bezügen in ihrer Bedeutung klarer erkennbar w erden und so eine solide Basis für die zukünftige Forschungsarbeit geschaffen ist. Der Leser ist nach der Lektüre dieses Werkes in der Lage, sich mit Details der Wissenspräsentation und Inferenz auseinanderzusetzen.
  3. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.02
    0.021457946 = product of:
      0.04291589 = sum of:
        0.04291589 = product of:
          0.08583178 = sum of:
            0.08583178 = weight(_text_:buch in 37) [ClassicSimilarity], result of:
              0.08583178 = score(doc=37,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.35958138 = fieldWeight in 37, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=37)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
  4. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.02
    0.017340638 = product of:
      0.034681275 = sum of:
        0.034681275 = product of:
          0.06936255 = sum of:
            0.06936255 = weight(_text_:buch in 506) [ClassicSimilarity], result of:
              0.06936255 = score(doc=506,freq=4.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.29058564 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  5. Brause, R.: Neuronale Netze : eine Einführung in die Neuroinformatik (1991) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 2824) [ClassicSimilarity], result of:
              0.061308414 = score(doc=2824,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 2824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2824)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Dieses Buch gibt eine systematische Einführung in die Grundlagen der Neuroinformatik. Es beschreibt in einheitlicher Notation die wichtigsten neuronalen Modelle und gibt beispielhaft Anwendungen dazu. Auch die praktischen Fragen der Simulation dieser Modelle finden Beachtung.
  6. Hüttenegger, G.: Open Source Knowledge Management [Open-source-knowledge-Management] (2006) 0.02
    0.015327103 = product of:
      0.030654207 = sum of:
        0.030654207 = product of:
          0.061308414 = sum of:
            0.061308414 = weight(_text_:buch in 652) [ClassicSimilarity], result of:
              0.061308414 = score(doc=652,freq=2.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.25684384 = fieldWeight in 652, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=652)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch präsentiert die vielfältigen Möglichkeiten von Open-Source-Software zur Unterstützung von Wissensmanagement. Der Autor erläutert die Grundlagen und Einsatzmöglichkeiten von Open-Source-Software beim Knowledge Management und entwickelt auf Grund von Analysen konkreter Open-Source-Produkte Entscheidungskriterien und Anleitungen für die Verbesserung von Knowledge Management- und Open-Source-Software. Kosteneinsparungen und Effizienz finden dabei besondere Beachtung.
  7. Hofstadter, D.R.: I am a strange loop (2007) 0.01
    0.013708979 = product of:
      0.027417958 = sum of:
        0.027417958 = product of:
          0.054835916 = sum of:
            0.054835916 = weight(_text_:buch in 666) [ClassicSimilarity], result of:
              0.054835916 = score(doc=666,freq=10.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.22972812 = fieldWeight in 666, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.015625 = fieldNorm(doc=666)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
  8. Social Semantic Web : Web 2.0, was nun? (2009) 0.01
    0.013005479 = product of:
      0.026010958 = sum of:
        0.026010958 = product of:
          0.052021917 = sum of:
            0.052021917 = weight(_text_:buch in 4854) [ClassicSimilarity], result of:
              0.052021917 = score(doc=4854,freq=4.0), product of:
                0.23869918 = queryWeight, product of:
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.05134011 = queryNorm
                0.21793923 = fieldWeight in 4854, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.64937 = idf(docFreq=1149, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4854)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
  9. Handbuch der Künstlichen Intelligenz (2003) 0.01
    0.012172783 = product of:
      0.024345566 = sum of:
        0.024345566 = product of:
          0.04869113 = sum of:
            0.04869113 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.04869113 = score(doc=2916,freq=2.0), product of:
                0.17978431 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05134011 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    21. 3.2008 19:10:22
  10. Multimedia content and the Semantic Web : methods, standards, and tools (2005) 0.01
    0.007529957 = product of:
      0.015059914 = sum of:
        0.015059914 = product of:
          0.030119829 = sum of:
            0.030119829 = weight(_text_:22 in 150) [ClassicSimilarity], result of:
              0.030119829 = score(doc=150,freq=6.0), product of:
                0.17978431 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05134011 = queryNorm
                0.16753313 = fieldWeight in 150, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=150)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    006.7 22
    Date
    7. 3.2007 19:30:22
    DDC
    006.7 22
  11. Information visualization in data mining and knowledge discovery (2002) 0.00
    0.003477938 = product of:
      0.006955876 = sum of:
        0.006955876 = product of:
          0.013911752 = sum of:
            0.013911752 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.013911752 = score(doc=1789,freq=2.0), product of:
                0.17978431 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05134011 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    23. 3.2008 19:10:22

Languages

Types

  • m 11
  • s 3

Classifications