Search (26 results, page 1 of 2)

  • × classification_ss:"54.72 / Künstliche Intelligenz"
  1. Handbuch der Künstlichen Intelligenz (2003) 0.11
    0.10745033 = product of:
      0.26862583 = sum of:
        0.15891013 = weight(_text_:monographien in 2916) [ClassicSimilarity], result of:
          0.15891013 = score(doc=2916,freq=4.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.72914284 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.03979285 = weight(_text_:software in 2916) [ClassicSimilarity], result of:
          0.03979285 = score(doc=2916,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.30681872 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.035129808 = weight(_text_:und in 2916) [ClassicSimilarity], result of:
          0.035129808 = score(doc=2916,freq=16.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.4848303 = fieldWeight in 2916, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.0066161114 = weight(_text_:in in 2916) [ClassicSimilarity], result of:
          0.0066161114 = score(doc=2916,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14877784 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.017841775 = weight(_text_:der in 2916) [ClassicSimilarity], result of:
          0.017841775 = score(doc=2916,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.24431825 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.010335136 = product of:
          0.031005409 = sum of:
            0.031005409 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.031005409 = score(doc=2916,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.33333334 = coord(1/3)
      0.4 = coord(6/15)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    Date
    21. 3.2008 19:10:22
    Footnote
    Bis 2. Aufl. u.d.T.: Einführung in die künstliche Intelligenz
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
  2. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.10
    0.095224164 = product of:
      0.2380604 = sum of:
        0.16052344 = weight(_text_:monographien in 2789) [ClassicSimilarity], result of:
          0.16052344 = score(doc=2789,freq=8.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.73654544 = fieldWeight in 2789, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.008871616 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.008871616 = score(doc=2789,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.01712277 = weight(_text_:zur in 2789) [ClassicSimilarity], result of:
          0.01712277 = score(doc=2789,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.004725794 = weight(_text_:in in 2789) [ClassicSimilarity], result of:
          0.004725794 = score(doc=2789,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10626988 = fieldWeight in 2789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.012744125 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.012744125 = score(doc=2789,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.17451303 = fieldWeight in 2789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.034072634 = product of:
          0.1022179 = sum of:
            0.1022179 = weight(_text_:datenverarbeitung in 2789) [ClassicSimilarity], result of:
              0.1022179 = score(doc=2789,freq=4.0), product of:
                0.2068191 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.032692216 = queryNorm
                0.4942382 = fieldWeight in 2789, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.33333334 = coord(1/3)
      0.4 = coord(6/15)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
  3. Bechtolsheim, M. von: Agentensysteme : verteiltes Problemlösen mit Expertensystemen (1992) 0.09
    0.09296512 = product of:
      0.27889535 = sum of:
        0.19262815 = weight(_text_:monographien in 3388) [ClassicSimilarity], result of:
          0.19262815 = score(doc=3388,freq=8.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.88385457 = fieldWeight in 3388, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
        0.026077118 = weight(_text_:und in 3388) [ClassicSimilarity], result of:
          0.026077118 = score(doc=3388,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.35989314 = fieldWeight in 3388, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
        0.0040099686 = weight(_text_:in in 3388) [ClassicSimilarity], result of:
          0.0040099686 = score(doc=3388,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.09017298 = fieldWeight in 3388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
        0.015292951 = weight(_text_:der in 3388) [ClassicSimilarity], result of:
          0.015292951 = score(doc=3388,freq=4.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.20941564 = fieldWeight in 3388, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
        0.040887166 = product of:
          0.12266149 = sum of:
            0.12266149 = weight(_text_:datenverarbeitung in 3388) [ClassicSimilarity], result of:
              0.12266149 = score(doc=3388,freq=4.0), product of:
                0.2068191 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.032692216 = queryNorm
                0.5930859 = fieldWeight in 3388, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3388)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Abstract
    Problem solving in Unternehmen und Organisationen geschieht vielerorts und vernetzt. Herkömmliche Expertensysteme tragen diesem Faktum kaum Rechnung. Deshalb ist gerda die Betriebswirtschaftslehre angewiesen auf den Agentensystemansatz, bei dem Problemlösungen so modelliert werden, daß sie den realen Verhältnissen möglichst nahe kommen
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    ST 330 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Bildverarbeitung und Mustererkennung
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
    85.20 / Betriebliche Information und Kommunikation
    RVK
    ST 330 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Bildverarbeitung und Mustererkennung
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
  4. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.07
    0.066571794 = product of:
      0.14265384 = sum of:
        0.02624671 = weight(_text_:23 in 4622) [ClassicSimilarity], result of:
          0.02624671 = score(doc=4622,freq=4.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.22400373 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.02624671 = weight(_text_:23 in 4622) [ClassicSimilarity], result of:
          0.02624671 = score(doc=4622,freq=4.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.22400373 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.022443611 = weight(_text_:und in 4622) [ClassicSimilarity], result of:
          0.022443611 = score(doc=4622,freq=20.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3097467 = fieldWeight in 4622, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.02624671 = weight(_text_:23 in 4622) [ClassicSimilarity], result of:
          0.02624671 = score(doc=4622,freq=4.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.22400373 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.019372202 = weight(_text_:zur in 4622) [ClassicSimilarity], result of:
          0.019372202 = score(doc=4622,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.19244531 = fieldWeight in 4622, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.0059777093 = weight(_text_:in in 4622) [ClassicSimilarity], result of:
          0.0059777093 = score(doc=4622,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.13442196 = fieldWeight in 4622, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
        0.016120184 = weight(_text_:der in 4622) [ClassicSimilarity], result of:
          0.016120184 = score(doc=4622,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.22074346 = fieldWeight in 4622, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
      0.46666667 = coord(7/15)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
    Date
    11. 2.2016 16:23:23
  5. Hofstadter, D.R.: I am a strange loop (2007) 0.07
    0.06532761 = product of:
      0.12248926 = sum of:
        0.009279613 = weight(_text_:23 in 666) [ClassicSimilarity], result of:
          0.009279613 = score(doc=666,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.009279613 = weight(_text_:23 in 666) [ClassicSimilarity], result of:
          0.009279613 = score(doc=666,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.019110046 = weight(_text_:und in 666) [ClassicSimilarity], result of:
          0.019110046 = score(doc=666,freq=58.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.26373982 = fieldWeight in 666, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.009279613 = weight(_text_:23 in 666) [ClassicSimilarity], result of:
          0.009279613 = score(doc=666,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.011863003 = weight(_text_:zur in 666) [ClassicSimilarity], result of:
          0.011863003 = score(doc=666,freq=6.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.1178482 = fieldWeight in 666, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.0365387 = weight(_text_:sicherheit in 666) [ClassicSimilarity], result of:
          0.0365387 = score(doc=666,freq=2.0), product of:
            0.23250443 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.032692216 = queryNorm
            0.15715271 = fieldWeight in 666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.0055111754 = weight(_text_:in in 666) [ClassicSimilarity], result of:
          0.0055111754 = score(doc=666,freq=34.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.123930916 = fieldWeight in 666, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
        0.021627497 = weight(_text_:der in 666) [ClassicSimilarity], result of:
          0.021627497 = score(doc=666,freq=72.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.29615843 = fieldWeight in 666, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=666)
      0.53333336 = coord(8/15)
    
    Abstract
    For more than 25 years, Hofstadter has been explaining the mystery of human consciousness through a bold fusion of mathematical logic and cognitive science. Yet for all of the acclaim his fusion has garnered (including the Pulitzer for his Godel, Escher, Bach, 1979), this pioneer admits that few readers have really grasped its meaning. To dispel the lingering incomprehension, Hofstadter here amplifies his revolutionary conception of the mind. A repudiation of traditional dualism--in which a spirit or soul inhabits the body--this revolutionary conception defines the mind as the emergence of a neural feedback loop within the brain. It is this peculiar loop that allows a stream of cognitive symbols to twist back on itself, so creating the self-awareness and self-integration that constitute an "I." Hofstadter explains the dynamics of this reflective self in refreshingly lucid language, enlivened with personal anecdotes that translate arcane formulas into the wagging tail on a golden retriever or the smile on Hopalong Cassidy. Nonspecialists are thus able to assess the divide between human and animal minds, and even to plumb the mental links binding the living to the dead. Hofstadter's analysis will not convince all skeptics. But even skeptics will appreciate the way he forces us to think deeper thoughts about thought.
    BK
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Classification
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Date
    4.11.2007 12:23:27
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  6. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.04
    0.039841197 = product of:
      0.14940448 = sum of:
        0.090805784 = weight(_text_:monographien in 642) [ClassicSimilarity], result of:
          0.090805784 = score(doc=642,freq=4.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.41665307 = fieldWeight in 642, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
        0.024585744 = weight(_text_:und in 642) [ClassicSimilarity], result of:
          0.024585744 = score(doc=642,freq=24.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.33931053 = fieldWeight in 642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
        0.008019937 = weight(_text_:in in 642) [ClassicSimilarity], result of:
          0.008019937 = score(doc=642,freq=18.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18034597 = fieldWeight in 642, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
        0.025993017 = weight(_text_:der in 642) [ClassicSimilarity], result of:
          0.025993017 = score(doc=642,freq=26.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.35593814 = fieldWeight in 642, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
      0.26666668 = coord(4/15)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
  7. Social Semantic Web : Web 2.0, was nun? (2009) 0.04
    0.035302084 = product of:
      0.10590625 = sum of:
        0.03410816 = weight(_text_:software in 4854) [ClassicSimilarity], result of:
          0.03410816 = score(doc=4854,freq=8.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.2629875 = fieldWeight in 4854, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.033665415 = weight(_text_:und in 4854) [ClassicSimilarity], result of:
          0.033665415 = score(doc=4854,freq=80.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.46462005 = fieldWeight in 4854, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.014529153 = weight(_text_:zur in 4854) [ClassicSimilarity], result of:
          0.014529153 = score(doc=4854,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.14433399 = fieldWeight in 4854, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.005670953 = weight(_text_:in in 4854) [ClassicSimilarity], result of:
          0.005670953 = score(doc=4854,freq=16.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 4854, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
        0.017932573 = weight(_text_:der in 4854) [ClassicSimilarity], result of:
          0.017932573 = score(doc=4854,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.2455616 = fieldWeight in 4854, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.33333334 = coord(5/15)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantic Web Revisited - Eine kurze Einführung in das Social Semantic Web - Andreas Blumauer und Tassilo Pellegrini Warum Web 2.0? Oder: Was vom Web 2.0 wirklich bleiben wird - Sonja Bettel Entwicklungsperspektiven von Social Software und dem Web 2.0 - Alexander Raabe Anwendungen und Technologien des Web 2.0: Ein Überblick - Alexander Stocker und Klaus Tochtermann Die Usability von Rich Internet Applications - Jörg Linder Die zwei Kulturen - Anupriya Ankolekar, Markus Krötzsch, Than Tran und Denny Vrandecic Wissensmodellierung im Semantic Web - Barbara Geyer-Hayden Anreicherung von Webinhalten mit Semantik - Microformats und RDFa - Michael Hausenblas Modellierung von Anwenderverhalten im Social Semantic Web - Armin Ulbrich, Patrick Höfler und Stefanie Lindstaedt Expertise bewerben und finden im Social Semantic Web - Axel Polleres und Malgorzata Mochol
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
    RSWK
    World Wide Web 2.0 / Semantic Web / Soziale Software / Aufsatzsammlung
    Subject
    World Wide Web 2.0 / Semantic Web / Soziale Software / Aufsatzsammlung
  8. Schöneburg, E.; Hansen, N.; Gawelczyk, A.: Neuronale Netzwerke : Einführung, Überblick, Anwendungsmöglichkeiten (1992) 0.03
    0.030588154 = product of:
      0.22941114 = sum of:
        0.22473285 = weight(_text_:monographien in 1575) [ClassicSimilarity], result of:
          0.22473285 = score(doc=1575,freq=8.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            1.0311637 = fieldWeight in 1575, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1575)
        0.004678297 = weight(_text_:in in 1575) [ClassicSimilarity], result of:
          0.004678297 = score(doc=1575,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10520181 = fieldWeight in 1575, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1575)
      0.13333334 = coord(2/15)
    
    Classification
    ST 150 Informatik / Monographien / Technische Informatik / Hardware, Rechnerarchitektur allgemein, von-Neumann-Architektur
    ST 301 Informatik / Monographien / Künstliche Intelligenz / Soft computing, Neuronale Netze, Fuzzy-Systeme
    Footnote
    Rez. in: Nachrichten für Dokumentation 44(1993) Nr.2, S.124-125
    RVK
    ST 150 Informatik / Monographien / Technische Informatik / Hardware, Rechnerarchitektur allgemein, von-Neumann-Architektur
    ST 301 Informatik / Monographien / Künstliche Intelligenz / Soft computing, Neuronale Netze, Fuzzy-Systeme
  9. Münkel, A. (Red.): Computer.Gehirn : was kann der Mensch? Was können die Computer? ; Begleitpublikation zur Sonderausstellung im Heinz-Nixdorf-MuseumsForum (2001) 0.02
    0.02057849 = product of:
      0.07716934 = sum of:
        0.02509272 = weight(_text_:und in 491) [ClassicSimilarity], result of:
          0.02509272 = score(doc=491,freq=16.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34630734 = fieldWeight in 491, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
        0.024215251 = weight(_text_:zur in 491) [ClassicSimilarity], result of:
          0.024215251 = score(doc=491,freq=4.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.24055663 = fieldWeight in 491, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
        0.0057878923 = weight(_text_:in in 491) [ClassicSimilarity], result of:
          0.0057878923 = score(doc=491,freq=6.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.1301535 = fieldWeight in 491, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
        0.022073472 = weight(_text_:der in 491) [ClassicSimilarity], result of:
          0.022073472 = score(doc=491,freq=12.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.30226544 = fieldWeight in 491, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
      0.26666668 = coord(4/15)
    
    Abstract
    Was kann der Mensch? Was können die Computer? Was wissen wir über das rätselhafteste Organ des menschlichen Körpers, das Gehirn und seine Funktionen? Lässt sich das Gehirn einfach nachbauen? Kann es wirklich Elektronenhirne geben? Schon längst ist der Computer im Schachspiel kaum noch zu schlagen. Aber wie sieht es mit anderen intelligenten Leistungen aus? Vor diesem Hintergrund wird zum Beginn des neuen Jahrtausends mit der Sonderausstellung "Computer.Gehirn" im Heinz Nixdorf MuseumsForum eine Zwischenbilanz gezogen. In dieser Begleitpublikation zur Ausstellung wird einerseits ein Leistungsvergleich zwischen Computern und dem menschlichen Gehirn geboten, andererseits werden die unterschiedlichen Funktionsprinzipien und Prozesse erklärt. Internationale Experten stellen den Stand der Forschung dar, ergänzt durch einen informativen Rundgang durch die Sonderausstellung.
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    Enthält auch die Beiträge: BROOKS, R.A.: Künstliche Intelligenz und Roboterentwicklung - RITTER, H.: Die Evolution der künstlichen Intelligenz - ENGEL, A.K. u. W. SINGER: Neuronale Grundlagen des Bewußtseins - METZINGER, T.: Postbiotisches Bewußtsein: wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten - HARA, F.: Gesichtsrobotik und emotional computing
  10. Spinning the Semantic Web : bringing the World Wide Web to its full potential (2003) 0.02
    0.02053191 = product of:
      0.102659546 = sum of:
        0.07945506 = weight(_text_:monographien in 1981) [ClassicSimilarity], result of:
          0.07945506 = score(doc=1981,freq=4.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.36457142 = fieldWeight in 1981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1981)
        0.019896425 = weight(_text_:software in 1981) [ClassicSimilarity], result of:
          0.019896425 = score(doc=1981,freq=2.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.15340936 = fieldWeight in 1981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1981)
        0.0033080557 = weight(_text_:in in 1981) [ClassicSimilarity], result of:
          0.0033080557 = score(doc=1981,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.07438892 = fieldWeight in 1981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1981)
      0.2 = coord(3/15)
    
    Abstract
    As the World Wide Web continues to expand, it becomes increasingly difficult for users to obtain information efficiently. Because most search engines read format languages such as HTML or SGML, search results reflect formatting tags more than actual page content, which is expressed in natural language. Spinning the Semantic Web describes an exciting new type of hierarchy and standardization that will replace the current "Web of links" with a "Web of meaning." Using a flexible set of languages and tools, the Semantic Web will make all available information - display elements, metadata, services, images, and especially content - accessible. The result will be an immense repository of information accessible for a wide range of new applications. This first handbook for the Semantic Web covers, among other topics, software agents that can negotiate and collect information, markup languages that can tag many more types of information in a document, and knowledge systems that enable machines to read Web pages and determine their reliability. The truly interdisciplinary Semantic Web combines aspects of artificial intelligence, markup languages, natural language processing, information retrieval, knowledge representation, intelligent agents, and databases.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  11. Bibel, W.; Hölldobler, S.; Schaub, T.: Wissensrepräsentation und Inferenz : eine grundlegende Einführung (1993) 0.02
    0.020513773 = product of:
      0.07692664 = sum of:
        0.021730933 = weight(_text_:und in 3389) [ClassicSimilarity], result of:
          0.021730933 = score(doc=3389,freq=12.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.29991096 = fieldWeight in 3389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.01712277 = weight(_text_:zur in 3389) [ClassicSimilarity], result of:
          0.01712277 = score(doc=3389,freq=2.0), product of:
            0.100663416 = queryWeight, product of:
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.032692216 = queryNorm
            0.17009923 = fieldWeight in 3389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.079125 = idf(docFreq=5528, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.008185315 = weight(_text_:in in 3389) [ClassicSimilarity], result of:
          0.008185315 = score(doc=3389,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.18406484 = fieldWeight in 3389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
        0.029887622 = weight(_text_:der in 3389) [ClassicSimilarity], result of:
          0.029887622 = score(doc=3389,freq=22.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.40926933 = fieldWeight in 3389, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
      0.26666668 = coord(4/15)
    
    Abstract
    Das Gebiet der Wissenspräsentation und Inferenz umfaßt einen zentralen Bereich der Intellektik, d.h. des Gebietes der Künstlichen Intelligenz und der Kognitionswissenschaft. Es behandelt einerseits die Fragen nach einer formalen Beschreibung von Wissen jeglicher Art, besonders unter dem Aspekt einer maschinellen Verarbeitung in modernen Computern. Andererseits versucht es, das Alltagsschließen des Menschen so zu formalisieren, daß logische Schlüsse auch von Maschinen ausgeführt werden könnten. Das Buch gibt eine ausführliche Einführung in dieses umfangreiche Gebiet. Dem Studenten dient es im Rahmen einer solchen Vorlesung oder zum Selbststudium als umfassende Unterlage, und der Praktiker zieht einen großen Gewinn aus der Lektüre dieses modernen Stoffes, der in dieser Breite bisher nicht verfügbar war. Darüber hinaus leistet das Buch einen wichtigen Beitrag zur Forschung dadurch, daß viele Ansätze auf diesem Gebiet in ihren inneren Bezügen in ihrer Bedeutung klarer erkennbar w erden und so eine solide Basis für die zukünftige Forschungsarbeit geschaffen ist. Der Leser ist nach der Lektüre dieses Werkes in der Lage, sich mit Details der Wissenspräsentation und Inferenz auseinanderzusetzen.
  12. Farkas, M.G.: Social software in libraries : building collaboration, communication, and community online (2007) 0.01
    0.013341879 = product of:
      0.100064084 = sum of:
        0.09024171 = weight(_text_:software in 2364) [ClassicSimilarity], result of:
          0.09024171 = score(doc=2364,freq=14.0), product of:
            0.12969498 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.032692216 = queryNorm
            0.6957995 = fieldWeight in 2364, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2364)
        0.009822378 = weight(_text_:in in 2364) [ClassicSimilarity], result of:
          0.009822378 = score(doc=2364,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.22087781 = fieldWeight in 2364, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2364)
      0.13333334 = coord(2/15)
    
    Content
    Inhalt: What is social software? -- Blogs -- Blogs in libraries : practical applications -- RSS -- Wikis -- Online communities -- Social networking -- Social bookmarking and collaborative filtering -- Tools for synchronous online reference -- The mobile revolution -- Podcasting -- Screencasting and vodcasting -- Gaming -- What will work @ your library -- Keeping up : a primer -- Future trends in social software.
    Footnote
    Rez. in: JASIST 59(1008) no.11, S.1866 (L.E. Harris)
    LCSH
    Telecommunication in libraries
    RSWK
    Bibliothek / Soziale Software
    Soziale Software / Bibliothek
    Subject
    Bibliothek / Soziale Software
    Soziale Software / Bibliothek
    Telecommunication in libraries
  13. Information visualization in data mining and knowledge discovery (2002) 0.01
    0.013081832 = product of:
      0.039245494 = sum of:
        0.009279613 = weight(_text_:23 in 1789) [ClassicSimilarity], result of:
          0.009279613 = score(doc=1789,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 1789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.009279613 = weight(_text_:23 in 1789) [ClassicSimilarity], result of:
          0.009279613 = score(doc=1789,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 1789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.009279613 = weight(_text_:23 in 1789) [ClassicSimilarity], result of:
          0.009279613 = score(doc=1789,freq=2.0), product of:
            0.117170855 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.032692216 = queryNorm
            0.07919728 = fieldWeight in 1789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.0084537575 = weight(_text_:in in 1789) [ClassicSimilarity], result of:
          0.0084537575 = score(doc=1789,freq=80.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.19010136 = fieldWeight in 1789, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.002952896 = product of:
          0.008858688 = sum of:
            0.008858688 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
              0.008858688 = score(doc=1789,freq=2.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.07738023 = fieldWeight in 1789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1789)
          0.33333334 = coord(1/3)
      0.33333334 = coord(5/15)
    
    Date
    23. 3.2008 19:10:22
    Footnote
    Rez. in: JASIST 54(2003) no.9, S.905-906 (C.A. Badurek): "Visual approaches for knowledge discovery in very large databases are a prime research need for information scientists focused an extracting meaningful information from the ever growing stores of data from a variety of domains, including business, the geosciences, and satellite and medical imagery. This work presents a summary of research efforts in the fields of data mining, knowledge discovery, and data visualization with the goal of aiding the integration of research approaches and techniques from these major fields. The editors, leading computer scientists from academia and industry, present a collection of 32 papers from contributors who are incorporating visualization and data mining techniques through academic research as well application development in industry and government agencies. Information Visualization focuses upon techniques to enhance the natural abilities of humans to visually understand data, in particular, large-scale data sets. It is primarily concerned with developing interactive graphical representations to enable users to more intuitively make sense of multidimensional data as part of the data exploration process. It includes research from computer science, psychology, human-computer interaction, statistics, and information science. Knowledge Discovery in Databases (KDD) most often refers to the process of mining databases for previously unknown patterns and trends in data. Data mining refers to the particular computational methods or algorithms used in this process. The data mining research field is most related to computational advances in database theory, artificial intelligence and machine learning. This work compiles research summaries from these main research areas in order to provide "a reference work containing the collection of thoughts and ideas of noted researchers from the fields of data mining and data visualization" (p. 8). It addresses these areas in three main sections: the first an data visualization, the second an KDD and model visualization, and the last an using visualization in the knowledge discovery process. The seven chapters of Part One focus upon methodologies and successful techniques from the field of Data Visualization. Hoffman and Grinstein (Chapter 2) give a particularly good overview of the field of data visualization and its potential application to data mining. An introduction to the terminology of data visualization, relation to perceptual and cognitive science, and discussion of the major visualization display techniques are presented. Discussion and illustration explain the usefulness and proper context of such data visualization techniques as scatter plots, 2D and 3D isosurfaces, glyphs, parallel coordinates, and radial coordinate visualizations. Remaining chapters present the need for standardization of visualization methods, discussion of user requirements in the development of tools, and examples of using information visualization in addressing research problems.
    In 13 chapters, Part Two provides an introduction to KDD, an overview of data mining techniques, and examples of the usefulness of data model visualizations. The importance of visualization throughout the KDD process is stressed in many of the chapters. In particular, the need for measures of visualization effectiveness, benchmarking for identifying best practices, and the use of standardized sample data sets is convincingly presented. Many of the important data mining approaches are discussed in this complementary context. Cluster and outlier detection, classification techniques, and rule discovery algorithms are presented as the basic techniques common to the KDD process. The potential effectiveness of using visualization in the data modeling process are illustrated in chapters focused an using visualization for helping users understand the KDD process, ask questions and form hypotheses about their data, and evaluate the accuracy and veracity of their results. The 11 chapters of Part Three provide an overview of the KDD process and successful approaches to integrating KDD, data mining, and visualization in complementary domains. Rhodes (Chapter 21) begins this section with an excellent overview of the relation between the KDD process and data mining techniques. He states that the "primary goals of data mining are to describe the existing data and to predict the behavior or characteristics of future data of the same type" (p. 281). These goals are met by data mining tasks such as classification, regression, clustering, summarization, dependency modeling, and change or deviation detection. Subsequent chapters demonstrate how visualization can aid users in the interactive process of knowledge discovery by graphically representing the results from these iterative tasks. Finally, examples of the usefulness of integrating visualization and data mining tools in the domain of business, imagery and text mining, and massive data sets are provided. This text concludes with a thorough and useful 17-page index and lengthy yet integrating 17-page summary of the academic and industrial backgrounds of the contributing authors. A 16-page set of color inserts provide a better representation of the visualizations discussed, and a URL provided suggests that readers may view all the book's figures in color on-line, although as of this submission date it only provides access to a summary of the book and its contents. The overall contribution of this work is its focus an bridging two distinct areas of research, making it a valuable addition to the Morgan Kaufmann Series in Database Management Systems. The editors of this text have met their main goal of providing the first textbook integrating knowledge discovery, data mining, and visualization. Although it contributes greatly to our under- standing of the development and current state of the field, a major weakness of this text is that there is no concluding chapter to discuss the contributions of the sum of these contributed papers or give direction to possible future areas of research. "Integration of expertise between two different disciplines is a difficult process of communication and reeducation. Integrating data mining and visualization is particularly complex because each of these fields in itself must draw an a wide range of research experience" (p. 300). Although this work contributes to the crossdisciplinary communication needed to advance visualization in KDD, a more formal call for an interdisciplinary research agenda in a concluding chapter would have provided a more satisfying conclusion to a very good introductory text.
    With contributors almost exclusively from the computer science field, the intended audience of this work is heavily slanted towards a computer science perspective. However, it is highly readable and provides introductory material that would be useful to information scientists from a variety of domains. Yet, much interesting work in information visualization from other fields could have been included giving the work more of an interdisciplinary perspective to complement their goals of integrating work in this area. Unfortunately, many of the application chapters are these, shallow, and lack complementary illustrations of visualization techniques or user interfaces used. However, they do provide insight into the many applications being developed in this rapidly expanding field. The authors have successfully put together a highly useful reference text for the data mining and information visualization communities. Those interested in a good introduction and overview of complementary research areas in these fields will be satisfied with this collection of papers. The focus upon integrating data visualization with data mining complements texts in each of these fields, such as Advances in Knowledge Discovery and Data Mining (Fayyad et al., MIT Press) and Readings in Information Visualization: Using Vision to Think (Card et. al., Morgan Kauffman). This unique work is a good starting point for future interaction between researchers in the fields of data visualization and data mining and makes a good accompaniment for a course focused an integrating these areas or to the main reference texts in these fields."
    Series
    Morgan Kaufmann series in data management systems
  14. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.01
    0.010847444 = product of:
      0.054237217 = sum of:
        0.026614847 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.026614847 = score(doc=714,freq=18.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.3673144 = fieldWeight in 714, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.007472136 = weight(_text_:in in 714) [ClassicSimilarity], result of:
          0.007472136 = score(doc=714,freq=10.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.16802745 = fieldWeight in 714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.020150231 = weight(_text_:der in 714) [ClassicSimilarity], result of:
          0.020150231 = score(doc=714,freq=10.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.27592933 = fieldWeight in 714, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
      0.2 = coord(3/15)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
    Classification
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    RVK
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
  15. Handbook on ontologies (2004) 0.01
    0.010701563 = product of:
      0.16052344 = sum of:
        0.16052344 = weight(_text_:monographien in 1952) [ClassicSimilarity], result of:
          0.16052344 = score(doc=1952,freq=8.0), product of:
            0.217941 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.032692216 = queryNorm
            0.73654544 = fieldWeight in 1952, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1952)
      0.06666667 = coord(1/15)
    
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 302 Informatik / Monographien / Künstliche Intelligenz / Expertensysteme; Wissensbasierte Systeme
  16. Stuckenschmidt, H.: Ontologien : Konzepte, Technologien und Anwendungen (2009) 0.01
    0.010274089 = product of:
      0.051370446 = sum of:
        0.024840524 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.024840524 = score(doc=37,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.34282678 = fieldWeight in 37, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.004678297 = weight(_text_:in in 37) [ClassicSimilarity], result of:
          0.004678297 = score(doc=37,freq=2.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.10520181 = fieldWeight in 37, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
        0.021851625 = weight(_text_:der in 37) [ClassicSimilarity], result of:
          0.021851625 = score(doc=37,freq=6.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.29922754 = fieldWeight in 37, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=37)
      0.2 = coord(3/15)
    
    Abstract
    Ontologien haben durch die aktuellen Entwicklungen des Semantic Web große Beachtung erfahren, da jetzt Technologien bereitgestellt werden, die eine Verwendung von Ontologien in Informationssystemen ermöglichen. Beginnend mit den grundlegenden Konzepten und Ideen von Ontologien, die der Philosophie und Linguistik entstammen, stellt das Buch den aktuellen Stand der Technik im Bereich unterstützender Technologien aus der Semantic Web Forschung dar und zeigt vielversprechende Anwendungsbiete auf.
  17. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.0070093716 = product of:
      0.035046857 = sum of:
        0.010645939 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.010645939 = score(doc=4332,freq=2.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.005670953 = weight(_text_:in in 4332) [ClassicSimilarity], result of:
          0.005670953 = score(doc=4332,freq=4.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.12752387 = fieldWeight in 4332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.018729964 = weight(_text_:der in 4332) [ClassicSimilarity], result of:
          0.018729964 = score(doc=4332,freq=6.0), product of:
            0.073026784 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.032692216 = queryNorm
            0.25648075 = fieldWeight in 4332, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.2 = coord(3/15)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  18. Aberer, K. et al.: ¬The Semantic Web : 6th International Semantic Web Conference, 2nd Asian Semantic Web Conference, ISWC 2007 + ASWC 2007, Busan, Korea, November 11-15, 2007 : proceedings (2007) 0.00
    0.0027657119 = product of:
      0.020742837 = sum of:
        0.014194585 = weight(_text_:und in 2477) [ClassicSimilarity], result of:
          0.014194585 = score(doc=2477,freq=8.0), product of:
            0.07245795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.032692216 = queryNorm
            0.19590102 = fieldWeight in 2477, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2477)
        0.006548252 = weight(_text_:in in 2477) [ClassicSimilarity], result of:
          0.006548252 = score(doc=2477,freq=12.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.14725187 = fieldWeight in 2477, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2477)
      0.13333334 = coord(2/15)
    
    Abstract
    This book constitutes the refereed proceedings of the joint 6th International Semantic Web Conference, ISWC 2007, and the 2nd Asian Semantic Web Conference, ASWC 2007, held in Busan, Korea, in November 2007. The 50 revised full academic papers and 12 revised application papers presented together with 5 Semantic Web Challenge papers and 12 selected doctoral consortium articles were carefully reviewed and selected from a total of 257 submitted papers to the academic track and 29 to the applications track. The papers address all current issues in the field of the semantic Web, ranging from theoretical and foundational aspects to various applied topics such as management of semantic Web data, ontologies, semantic Web architecture, social semantic Web, as well as applications of the semantic Web. Short descriptions of the top five winning applications submitted to the Semantic Web Challenge competition conclude the volume.
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Series
    Lecture notes in computer science ; 4825
  19. Multimedia content and the Semantic Web : methods, standards, and tools (2005) 0.00
    0.0018487127 = product of:
      0.013865344 = sum of:
        0.007472136 = weight(_text_:in in 150) [ClassicSimilarity], result of:
          0.007472136 = score(doc=150,freq=40.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.16802745 = fieldWeight in 150, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=150)
        0.006393208 = product of:
          0.019179624 = sum of:
            0.019179624 = weight(_text_:22 in 150) [ClassicSimilarity], result of:
              0.019179624 = score(doc=150,freq=6.0), product of:
                0.114482574 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.032692216 = queryNorm
                0.16753313 = fieldWeight in 150, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=150)
          0.33333334 = coord(1/3)
      0.13333334 = coord(2/15)
    
    Classification
    006.7 22
    Date
    7. 3.2007 19:30:22
    DDC
    006.7 22
    Footnote
    Rez. in: JASIST 58(2007) no.3, S.457-458 (A.M.A. Ahmad): "The concept of the semantic web has emerged because search engines and text-based searching are no longer adequate, as these approaches involve an extensive information retrieval process. The deployed searching and retrieving descriptors arc naturally subjective and their deployment is often restricted to the specific application domain for which the descriptors were configured. The new era of information technology imposes different kinds of requirements and challenges. Automatic extracted audiovisual features are required, as these features are more objective, domain-independent, and more native to audiovisual content. This book is a useful guide for researchers, experts, students, and practitioners; it is a very valuable reference and can lead them through their exploration and research in multimedia content and the semantic web. The book is well organized, and introduces the concept of the semantic web and multimedia content analysis to the reader through a logical sequence from standards and hypotheses through system examples, presenting relevant tools and methods. But in some chapters readers will need a good technical background to understand some of the details. Readers may attain sufficient knowledge here to start projects or research related to the book's theme; recent results and articles related to the active research area of integrating multimedia with semantic web technologies are included. This book includes full descriptions of approaches to specific problem domains such as content search, indexing, and retrieval. This book will be very useful to researchers in the multimedia content analysis field who wish to explore the benefits of emerging semantic web technologies in applying multimedia content approaches. The first part of the book covers the definition of the two basic terms multimedia content and semantic web. The Moving Picture Experts Group standards MPEG7 and MPEG21 are quoted extensively. In addition, the means of multimedia content description are elaborated upon and schematically drawn. This extensive description is introduced by authors who are actively involved in those standards and have been participating in the work of the International Organization for Standardization (ISO)/MPEG for many years. On the other hand, this results in bias against the ad hoc or nonstandard tools for multimedia description in favor of the standard approaches. This is a general book for multimedia content; more emphasis on the general multimedia description and extraction could be provided.
    Semantic web technologies are explained, and ontology representation is emphasized. There is an excellent summary of the fundamental theory behind applying a knowledge-engineering approach to vision problems. This summary represents the concept of the semantic web and multimedia content analysis. A definition of the fuzzy knowledge representation that can be used for realization in multimedia content applications has been provided, with a comprehensive analysis. The second part of the book introduces the multimedia content analysis approaches and applications. In addition, some examples of methods applicable to multimedia content analysis are presented. Multimedia content analysis is a very diverse field and concerns many other research fields at the same time; this creates strong diversity issues, as everything from low-level features (e.g., colors, DCT coefficients, motion vectors, etc.) up to the very high and semantic level (e.g., Object, Events, Tracks, etc.) are involved. The second part includes topics on structure identification (e.g., shot detection for video sequences), and object-based video indexing. These conventional analysis methods are supplemented by results on semantic multimedia analysis, including three detailed chapters on the development and use of knowledge models for automatic multimedia analysis. Starting from object-based indexing and continuing with machine learning, these three chapters are very logically organized. Because of the diversity of this research field, including several chapters of recent research results is not sufficient to cover the state of the art of multimedia. The editors of the book should write an introductory chapter about multimedia content analysis approaches, basic problems, and technical issues and challenges, and try to survey the state of the art of the field and thus introduce the field to the reader.
    The final part of the book discusses research in multimedia content management systems and the semantic web, and presents examples and applications for semantic multimedia analysis in search and retrieval systems. These chapters describe example systems in which current projects have been implemented, and include extensive results and real demonstrations. For example, real case scenarios such as ECommerce medical applications and Web services have been introduced. Topics in natural language, speech and image processing techniques and their application for multimedia indexing, and content-based retrieval have been elaborated upon with extensive examples and deployment methods. The editors of the book themselves provide the readers with a chapter about their latest research results on knowledge-based multimedia content indexing and retrieval. Some interesting applications for multimedia content and the semantic web are introduced. Applications that have taken advantage of the metadata provided by MPEG7 in order to realize advance-access services for multimedia content have been provided. The applications discussed in the third part of the book provide useful guidance to researchers and practitioners properly planning to implement semantic multimedia analysis techniques in new research and development projects in both academia and industry. A fourth part should be added to this book: performance measurements for integrated approaches of multimedia analysis and the semantic web. Performance of the semantic approach is a very sophisticated issue and requires extensive elaboration and effort. Measuring the semantic search is an ongoing research area; several chapters concerning performance measurement and analysis would be required to adequately cover this area and introduce it to readers."
  20. Schoenhoff, D.M.: ¬The barefoot expert : the interface of computerized knowledge systems and indigenous knowledge systems (1993) 0.00
    5.8941013E-4 = product of:
      0.008841151 = sum of:
        0.008841151 = weight(_text_:in in 4592) [ClassicSimilarity], result of:
          0.008841151 = score(doc=4592,freq=14.0), product of:
            0.044469737 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.032692216 = queryNorm
            0.19881277 = fieldWeight in 4592, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4592)
      0.06666667 = coord(1/15)
    
    Abstract
    It may seem a strange match - AI and crop irrigation or AI and the Serengeti lions but researchers in artificial intelligence envision expert systems as a new technology for capturing the knowledge and reasoning process of experts in agriculture, wildlife management and many other fields. These computer programmes have a relevance for developing nations that desire to close the gap between themselves and the richer nations of the world. Despite the value and appeal of expert systems for economic and technological development, Schoenhoff dicloses how this technology reflects the Western preoccupation with literacy and rationality. When expert systems are introduced into developing nations, they must interact with persons who reason and articulate their knowledge in ways unfamiliar to high-tech cultures. Knowledge, particularly in poor and traditional communities, may be expressed in proverbs rather than propositions or in folklore rather that formulas. Drawing upon diverse disciplines, the author explores whether such indigenous knowledge can be incorporated into the formal language and artificial rationality of the computer - and the imperative for working toward this incorporation.
    Footnote
    Rez. in: JASIS 45(1994) no.3, S.220-221 (P. Wilson)

Languages

  • e 16
  • d 9

Types

  • m 26
  • s 11

Subjects

Classifications