Search (12 results, page 1 of 1)

  • × language_ss:"d"
  • × classification_ss:"54.72 / Künstliche Intelligenz"
  1. Handbuch der Künstlichen Intelligenz (2003) 0.09
    0.09071314 = product of:
      0.18142629 = sum of:
        0.13899708 = weight(_text_:theorien in 2916) [ClassicSimilarity], result of:
          0.13899708 = score(doc=2916,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5083486 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.02270279 = weight(_text_:der in 2916) [ClassicSimilarity], result of:
          0.02270279 = score(doc=2916,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24431825 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.039452866 = score(doc=2916,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    Date
    21. 3.2008 19:10:22
  2. Bechtolsheim, M. von: Agentensysteme : verteiltes Problemlösen mit Expertensystemen (1992) 0.05
    0.05152031 = product of:
      0.15456092 = sum of:
        0.1351014 = weight(_text_:einzelne in 3388) [ClassicSimilarity], result of:
          0.1351014 = score(doc=3388,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.5517887 = fieldWeight in 3388, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
        0.019459534 = weight(_text_:der in 3388) [ClassicSimilarity], result of:
          0.019459534 = score(doc=3388,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 3388, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3388)
      0.33333334 = coord(2/6)
    
    Classification
    ST 330 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Bildverarbeitung und Mustererkennung
    RVK
    ST 330 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Bildverarbeitung und Mustererkennung
  3. Hüttenegger, G.: Open Source Knowledge Management [Open-source-knowledge-Management] (2006) 0.05
    0.046074893 = product of:
      0.13822468 = sum of:
        0.112584494 = weight(_text_:einzelne in 652) [ClassicSimilarity], result of:
          0.112584494 = score(doc=652,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.4598239 = fieldWeight in 652, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=652)
        0.025640188 = weight(_text_:der in 652) [ClassicSimilarity], result of:
          0.025640188 = score(doc=652,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27592933 = fieldWeight in 652, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=652)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Buch präsentiert die vielfältigen Möglichkeiten von Open-Source-Software zur Unterstützung von Wissensmanagement. Der Autor erläutert die Grundlagen und Einsatzmöglichkeiten von Open-Source-Software beim Knowledge Management und entwickelt auf Grund von Analysen konkreter Open-Source-Produkte Entscheidungskriterien und Anleitungen für die Verbesserung von Knowledge Management- und Open-Source-Software. Kosteneinsparungen und Effizienz finden dabei besondere Beachtung.
    Classification
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    ST 230 Informatik / Monographien / Software und -entwicklung / Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge
    RVK
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    ST 230 Informatik / Monographien / Software und -entwicklung / Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge
  4. Bibel, W.; Hölldobler, S.; Schaub, T.: Wissensrepräsentation und Inferenz : eine grundlegende Einführung (1993) 0.01
    0.006338424 = product of:
      0.038030542 = sum of:
        0.038030542 = weight(_text_:der in 3389) [ClassicSimilarity], result of:
          0.038030542 = score(doc=3389,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.40926933 = fieldWeight in 3389, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3389)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Gebiet der Wissenspräsentation und Inferenz umfaßt einen zentralen Bereich der Intellektik, d.h. des Gebietes der Künstlichen Intelligenz und der Kognitionswissenschaft. Es behandelt einerseits die Fragen nach einer formalen Beschreibung von Wissen jeglicher Art, besonders unter dem Aspekt einer maschinellen Verarbeitung in modernen Computern. Andererseits versucht es, das Alltagsschließen des Menschen so zu formalisieren, daß logische Schlüsse auch von Maschinen ausgeführt werden könnten. Das Buch gibt eine ausführliche Einführung in dieses umfangreiche Gebiet. Dem Studenten dient es im Rahmen einer solchen Vorlesung oder zum Selbststudium als umfassende Unterlage, und der Praktiker zieht einen großen Gewinn aus der Lektüre dieses modernen Stoffes, der in dieser Breite bisher nicht verfügbar war. Darüber hinaus leistet das Buch einen wichtigen Beitrag zur Forschung dadurch, daß viele Ansätze auf diesem Gebiet in ihren inneren Bezügen in ihrer Bedeutung klarer erkennbar w erden und so eine solide Basis für die zukünftige Forschungsarbeit geschaffen ist. Der Leser ist nach der Lektüre dieses Werkes in der Lage, sich mit Details der Wissenspräsentation und Inferenz auseinanderzusetzen.
  5. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.01
    0.005512475 = product of:
      0.03307485 = sum of:
        0.03307485 = weight(_text_:der in 642) [ClassicSimilarity], result of:
          0.03307485 = score(doc=642,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 642, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  6. Münkel, A. (Red.): Computer.Gehirn : was kann der Mensch? Was können die Computer? ; Begleitpublikation zur Sonderausstellung im Heinz-Nixdorf-MuseumsForum (2001) 0.00
    0.0046812366 = product of:
      0.028087419 = sum of:
        0.028087419 = weight(_text_:der in 491) [ClassicSimilarity], result of:
          0.028087419 = score(doc=491,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30226544 = fieldWeight in 491, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
      0.16666667 = coord(1/6)
    
    Abstract
    Was kann der Mensch? Was können die Computer? Was wissen wir über das rätselhafteste Organ des menschlichen Körpers, das Gehirn und seine Funktionen? Lässt sich das Gehirn einfach nachbauen? Kann es wirklich Elektronenhirne geben? Schon längst ist der Computer im Schachspiel kaum noch zu schlagen. Aber wie sieht es mit anderen intelligenten Leistungen aus? Vor diesem Hintergrund wird zum Beginn des neuen Jahrtausends mit der Sonderausstellung "Computer.Gehirn" im Heinz Nixdorf MuseumsForum eine Zwischenbilanz gezogen. In dieser Begleitpublikation zur Ausstellung wird einerseits ein Leistungsvergleich zwischen Computern und dem menschlichen Gehirn geboten, andererseits werden die unterschiedlichen Funktionsprinzipien und Prozesse erklärt. Internationale Experten stellen den Stand der Forschung dar, ergänzt durch einen informativen Rundgang durch die Sonderausstellung.
    Content
    Enthält auch die Beiträge: BROOKS, R.A.: Künstliche Intelligenz und Roboterentwicklung - RITTER, H.: Die Evolution der künstlichen Intelligenz - ENGEL, A.K. u. W. SINGER: Neuronale Grundlagen des Bewußtseins - METZINGER, T.: Postbiotisches Bewußtsein: wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten - HARA, F.: Gesichtsrobotik und emotional computing
  7. Brause, R.: Neuronale Netze : eine Einführung in die Neuroinformatik (1991) 0.00
    0.004273365 = product of:
      0.025640188 = sum of:
        0.025640188 = weight(_text_:der in 2824) [ClassicSimilarity], result of:
          0.025640188 = score(doc=2824,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27592933 = fieldWeight in 2824, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2824)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieses Buch gibt eine systematische Einführung in die Grundlagen der Neuroinformatik. Es beschreibt in einheitlicher Notation die wichtigsten neuronalen Modelle und gibt beispielhaft Anwendungen dazu. Auch die praktischen Fragen der Simulation dieser Modelle finden Beachtung.
    Classification
    ST 130 Informatik / Monographien / Grundlagen der Informatik / Theoretische Informatik / Allgemeines
    RVK
    ST 130 Informatik / Monographien / Grundlagen der Informatik / Theoretische Informatik / Allgemeines
    Series
    Leitfäden und Monographien der Informatik
  8. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.00
    0.0039721616 = product of:
      0.023832968 = sum of:
        0.023832968 = weight(_text_:der in 4332) [ClassicSimilarity], result of:
          0.023832968 = score(doc=4332,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25648075 = fieldWeight in 4332, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  9. Social Semantic Web : Web 2.0, was nun? (2009) 0.00
    0.0038030546 = product of:
      0.022818327 = sum of:
        0.022818327 = weight(_text_:der in 4854) [ClassicSimilarity], result of:
          0.022818327 = score(doc=4854,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2455616 = fieldWeight in 4854, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4854)
      0.16666667 = coord(1/6)
    
    Abstract
    Semantische Techniken zur strukturierten Erschließung von Web 2.0-Content und kollaborative Anreicherung von Web Content mit maschinenlesbaren Metadaten wachsen zum Social Semantic Web zusammen, das durch eine breite Konvergenz zwischen Social Software und Semantic Web-Technologien charakterisiert ist. Dieses Buch stellt die technischen, organisatorischen und kulturellen Veränderungen dar, die das Social Semantic Web begleiten, und hilft Entscheidungsträgern und Entwicklern, die Tragweite dieser Web-Technologie für ihr jeweiliges Unternehmen zu erkennen. Social Semantic Web: Web 2.0 - Was nun? ist quasi die 2. Auflage von Semantic Web: Wege zur vernetzten Wissensgesellschaft von 2006, in der jedoch eher die technischen Aspekte im Vordergrund standen - einiges ist seitdem im weltweiten Netz passiert, vor allem mit dem, als Web 2.0 gestempelten Ajax-User-Community-Mix in Verbindung mit dem Semantic Web wurden und werden die Karten an einigen Enden der Datenautobahn neu gemischt - dem tragen Andreas Blumauer und Tassilo Pellegrini mit einem Update ihrer Fachautorensammlung für interessierte Laien und themenfremde Experten in der passenden 2.0-Neuauflage Rechnung.
    Thematisch haben die beiden Herausgeber ihre Beitragssammlung in vier Bereiche aufgeteilt: zuerst der Einstieg ins Thema Web 2.0 mit sechs Beiträgen - die Konvergenz von Semantic Web und Web 2.0, Auswirkungen auf die Gesellschaft, Technologien und jeweils die entsprechenden Perspektiven; gute, faktenbasierte Überblicke, die das Buch auf eine solide Grundlage stellen und reichhaltiges Wissen für ansonsten meist oberflächlich geführte Diskussionen zum Thema liefern. Der zweite Themenbereich ist dann den Technologien und Methodem gewidmet: Wie sieht die Technik hinter der "Semantik" im Web aus? Wissensmodellierung, Beispiele wie die Expertensuche, Content Management Systeme oder semantische Wikis. In Teil drei werfen die Autoren dann einen Blick auf bestehende Anwendungen im aktuellen Social Semantic Web und geben einen Ausblick auf deren zukünftige Entwicklungen. Im abschließenden Teil vier schließlich geben die Autoren der drei Beiträge einen Überblick zum "Social Semantic Web" aus sozialwissenschaftlicher Perspektive. Zusammenfassungen am Anfang jedes Beitrags, gute Strukturen zusätzliche Quellen und auch die gut lesbare Länge der Beiträge - angenehme verständlich und konsumierbar. Blumauer und Pellegrini haben auch mit Social Semantic Web: Web 2.0 - Was nun? ganze Arbeit geleistet und ein breites Spektrum an Perspektiven, Meinungen und Quellen zusammengetragen - das Ergebnis ist stellenweise durchaus heterogen und nicht jeder Beitrag muss gefallen, doch das Gesamtergebnis stellt die von den Herausgebern thematisierte heterogene Welt des Social Semantic Web realistisch dar. Wer in Zukunft nicht nur "gefährliches Halbwissen" um das Web 2.0 und das Semantic Web von sich geben will, sollte Social Semantic Web: Web 2.0 - Was nun? gelesen haben!
    Content
    Semantische Content Management Systeme - Erich Gams und Daniel Mitterdorfer Tag-Recommender gestützte Annotation von Web-Dokumenten - Andreas Blumauer und Martin Hochmeister Semantische Wikis - Sebastian Schaffert, François Bry, Joachim Baumeister und Malte Kiesel Semantische Mashups auf Basis Vernetzter Daten - Sören Auer, Jens Lehmann und Christian Bizer Web-gestütztes Social Networking am Beispiel der "Plattform Wissensmanagement" - Stefanie N. Lindstaedt und Claudia Thurner Explorative Netzwerkanalyse im Living Web - Gernot Tscherteu und Christian Langreiter Semantic Desktop - Leo Sauermann, Malte Kiesel, Kinga Schumacher und Ansgar Bernardi Social Bookmarking am Beispiel BibSonomy - Andreas Hotho, Robert Jäschke, Dominik Benz, Miranda Grahl, Beate Krause, Christoph Schmitz und Gerd Stumme Semantic Wikipedia - Markus Krötzsch und Denny Vrandecic Die Zeitung der Zukunft - Christoph Wieser und Sebastian Schaffert Das Semantic Web als Werkzeug in der biomedizinischen Forschung - Holger Stenzhorn und Matthias Samwald
  10. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.00
    0.0037449892 = product of:
      0.022469934 = sum of:
        0.022469934 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.022469934 = score(doc=506,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24181235 = fieldWeight in 506, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
      0.16666667 = coord(1/6)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  11. Beierle, C.; Kern-Isberner, G.: Methoden wissensbasierter Systeme : Grundlagen, Algorithmen, Anwendungen (2008) 0.00
    0.003418692 = product of:
      0.02051215 = sum of:
        0.02051215 = weight(_text_:der in 4622) [ClassicSimilarity], result of:
          0.02051215 = score(doc=4622,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.22074346 = fieldWeight in 4622, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4622)
      0.16666667 = coord(1/6)
    
    Abstract
    Dieses Buch präsentiert ein breites Spektrum aktueller Methoden zur Repräsentation und Verarbeitung (un)sicheren Wissens in maschinellen Systemen in didaktisch aufbereiteter Form. Neben symbolischen Ansätzen des nichtmonotonen Schließens (Default-Logik, hier konstruktiv und leicht verständlich mittels sog. Default-Bäume realisiert) werden auch ausführlich quantitative Methoden wie z.B. probabilistische Markov- und Bayes-Netze vorgestellt. Weitere Abschnitte beschäftigen sich mit Wissensdynamik (Truth Maintenance-Systeme), Aktionen und Planen, maschinellem Lernen, Data Mining und fallbasiertem Schließen.In einem vertieften Querschnitt werden zentrale alternative Ansätze einer logikbasierten Wissensmodellierung ausführlich behandelt. Detailliert beschriebene Algorithmen geben dem Praktiker nützliche Hinweise zur Anwendung der vorgestellten Ansätze an die Hand, während fundiertes Hintergrundwissen ein tieferes Verständnis für die Besonderheiten der einzelnen Methoden vermittelt . Mit einer weitgehend vollständigen Darstellung des Stoffes und zahlreichen, in den Text integrierten Aufgaben ist das Buch für ein Selbststudium konzipiert, eignet sich aber gleichermaßen für eine entsprechende Vorlesung. Im Online-Service zu diesem Buch werden u.a. ausführliche Lösungshinweise zu allen Aufgaben des Buches angeboten.Zahlreiche Beispiele mit medizinischem, biologischem, wirtschaftlichem und technischem Hintergrund illustrieren konkrete Anwendungsszenarien. Von namhaften Professoren empfohlen: State-of-the-Art bietet das Buch zu diesem klassischen Bereich der Informatik. Die wesentlichen Methoden wissensbasierter Systeme werden verständlich und anschaulich dargestellt. Repräsentation und Verarbeitung sicheren und unsicheren Wissens in maschinellen Systemen stehen dabei im Mittelpunkt. In der vierten, verbesserten Auflage wurde die Anzahl der motivierenden Selbsttestaufgaben mit aktuellem Praxisbezug nochmals erweitert. Ein Online-Service mit ausführlichen Musterlösungen erleichtert das Lernen.
  12. Hofstadter, D.R.; Fluid Analogies Group: ¬Die FARGonauten : über Analogie und Kreativität (1996) 0.00
    0.002702713 = product of:
      0.016216278 = sum of:
        0.016216278 = weight(_text_:der in 1665) [ClassicSimilarity], result of:
          0.016216278 = score(doc=1665,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17451303 = fieldWeight in 1665, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1665)
      0.16666667 = coord(1/6)
    
    Abstract
    Bericht über die Arbeit einer Forschungsgruppe, die sich über ca. 15 Jahre mit Kreativität und Analogiefähigkeit von KI-Systemen (Künstlicher Intelligenz) beschäftigt haben. Die entscheidende Frage für Hofstadter und seine Crew, die Fluid Analogies Research Group, lautet: Können Computer Analogien erkennen, und ist nicht gerade diese Mustererkennung ein Zeichen von höherer Intelligenz? Was ist Kreativität anderes, als starre Formen, Sequenzen zu verflüssigen, um hinter das Geheimnis ihrer Zusammenhänge zu kommen und neue Muster bilden zu können? "Der liebe Gott würfelt nicht", meinte Einstein. Wenn er es dennoch täte, dann ergäbe die Zahlenfolge sicherlich ein Muster besonderer Art.
    Footnote
    Rez. in: Spektrum der Wissenschaft 1998, H.3, S.108-110 (T. Scheuer)

Types

  • m 12
  • s 2

Classifications