Search (1554 results, page 1 of 78)

  • × year_i:[2000 TO 2010}
  1. Hotho, A.; Bloehdorn, S.: Data Mining 2004 : Text classification by boosting weak learners based on terms and concepts (2004) 0.30
    0.29765156 = product of:
      0.44647732 = sum of:
        0.061532892 = product of:
          0.18459867 = sum of:
            0.18459867 = weight(_text_:3a in 562) [ClassicSimilarity], result of:
              0.18459867 = score(doc=562,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.56201804 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.33333334 = coord(1/3)
        0.18459867 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.18459867 = score(doc=562,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.18459867 = weight(_text_:2f in 562) [ClassicSimilarity], result of:
          0.18459867 = score(doc=562,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.56201804 = fieldWeight in 562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=562)
        0.015747102 = product of:
          0.031494204 = sum of:
            0.031494204 = weight(_text_:22 in 562) [ClassicSimilarity], result of:
              0.031494204 = score(doc=562,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.23214069 = fieldWeight in 562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=562)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Content
    Vgl.: http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CEAQFjAA&url=http%3A%2F%2Fciteseerx.ist.psu.edu%2Fviewdoc%2Fdownload%3Fdoi%3D10.1.1.91.4940%26rep%3Drep1%26type%3Dpdf&ei=dOXrUMeIDYHDtQahsIGACg&usg=AFQjCNHFWVh6gNPvnOrOS9R3rkrXCNVD-A&sig2=5I2F5evRfMnsttSgFF9g7Q&bvm=bv.1357316858,d.Yms.
    Date
    8. 1.2013 10:22:32
  2. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.29
    0.28715348 = product of:
      0.57430696 = sum of:
        0.08204386 = product of:
          0.24613157 = sum of:
            0.24613157 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.24613157 = score(doc=140,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.24613157 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.24613157 = score(doc=140,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
        0.24613157 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.24613157 = score(doc=140,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  3. Dueck, G.: Lean-brain-Management : Erfolg und Effizienzsteigerung durch Null-Hirn (2006) 0.28
    0.28074697 = product of:
      0.56149393 = sum of:
        0.20702195 = weight(_text_:intelligenz in 656) [ClassicSimilarity], result of:
          0.20702195 = score(doc=656,freq=18.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.94105315 = fieldWeight in 656, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=656)
        0.30799034 = weight(_text_:humoristische in 656) [ClassicSimilarity], result of:
          0.30799034 = score(doc=656,freq=4.0), product of:
            0.39081004 = queryWeight, product of:
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.038742207 = queryNorm
            0.78808194 = fieldWeight in 656, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.0390625 = fieldNorm(doc=656)
        0.046481695 = product of:
          0.09296339 = sum of:
            0.09296339 = weight(_text_:darstellung in 656) [ClassicSimilarity], result of:
              0.09296339 = score(doc=656,freq=4.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.432971 = fieldWeight in 656, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=656)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Was können wir noch einsparen? Intelligenz ist sehr teuer! Akademiker kosten Unsummen! Die Arbeitsabläufe sind zu kompliziert. Ungeheuerliche Mengen an Intelligenz werden an Probleme verschwendet, die ihrerseits durch übermäßige Intelligenz erzeugt worden sind. Lean Brain Management strebt kompromisslose Lean Brain Quality an. Lean Brain steht für konsequentes Einsparen von Intelligenz in allen Lebensbereichen: intelligente Systeme werden nur noch von Hilfskräften bedient. Bildung, Universitäten, Schulen können entfallen. Eine Woche Anlernen reicht für fast jeden Job. ("Sie sind jetzt der Arzt für Masern in Hessen. Auf Anrufe schicken Sie dieses Rezept.") Lean Brain zielt nicht auf Verdummung! Lean Brain kommt nur mit ganz wenig zentraler Intelligenz aus. Die Einsparpotentiale gehen in die Billionen! Das wird am Beispiel Deutschlands gezeigt. Dueck legt mit diesem Buch einen radikalen Weltverbesserungsvorschlag vor. Das nichtendenwollende Lachen darüber wird in allen Hälsen stecken. Das Buch enthält konkrete Ratschläge für Manager zum Intelligenzsparen und ist deshalb - auch dem Thema angemessen - leicht verständlich geschrieben. Es enthält keinerlei Selbstzweifel.
    Classification
    AK 26300 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Intelligenz
    RSWK
    Management / Intelligenz / Humoristische Darstellung
    RVK
    AK 26300 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Intelligenz
    Subject
    Management / Intelligenz / Humoristische Darstellung
  4. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.26
    0.26120627 = product of:
      0.39180937 = sum of:
        0.05127741 = product of:
          0.15383223 = sum of:
            0.15383223 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.15383223 = score(doc=5895,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.15383223 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.15383223 = score(doc=5895,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.15383223 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.15383223 = score(doc=5895,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
        0.03286752 = product of:
          0.06573504 = sum of:
            0.06573504 = weight(_text_:darstellung in 5895) [ClassicSimilarity], result of:
              0.06573504 = score(doc=5895,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.30615672 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Das Problem der Wahrnehmung und Darstellung von Wahrheit durch die Medien führt zu vier zentralen Fragen: Wie viel Wahrheit gibt es in der Welt, über die Journalisten berichten müssen? Wie ermittelt oder recherchiert man diese Wahrheit? Wie trennt man die Spreu vom Weizen? Und wie geht man als Journalist mit dem um, was man als Wahrheit erkannt hat oder erkannt zu haben glaubt? Hier gibt es ganz offensichtlich eine Parallele zwischen Journalisten und Wissenschaftlern. Journalisten und Wissenschaftler brauchen erstens Hypothesen, zweitens geeignete Hypothesentests, drittens ein gutes Abgrenzungs-Kriterium und viertens Verfahren, um die erkannten Sachverhalte auf angemessene Weise für eine Kommunikation mit anderen zu repräsentieren, das heißt sie darzustellen. Es gibt zwei große Unterschiede zwischen Journalisten und Wissenschaftlern: Journalisten sind in der Regel auf raum-zeitlich begrenzte Aussagen aus, Wissenschaftler in der Regel auf raumzeitlich unbegrenzte Gesetze. Aber diese Unterschiede sind fließend, weil Wissenschaftler raum-zeitlich begrenzte Aussagen brauchen, um ihre All-Aussagen zu überprüfen, und Journalisten sich immer häufiger auf das Feld der allgemeinen Gesetzes-Aussagen wagen oder doch zumindest Kausalinterpretationen für soziale Phänomene anbieten. Der zweite Unterschied besteht darin, dass die Wissenschaft weitgehend professionalisiert ist (zumindest gilt dies uneingeschränkt für die Naturwissenschaften und die Medizin), was ihr relativ klare Abgrenzungs- und Güte-Kriterien beschert hat. Diese fehlen weitgehend im Journalismus.
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  5. Vetere, G.; Lenzerini, M.: Models for semantic interoperability in service-oriented architectures (2005) 0.25
    0.25125933 = product of:
      0.50251865 = sum of:
        0.07178838 = product of:
          0.21536513 = sum of:
            0.21536513 = weight(_text_:3a in 306) [ClassicSimilarity], result of:
              0.21536513 = score(doc=306,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.65568775 = fieldWeight in 306, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=306)
          0.33333334 = coord(1/3)
        0.21536513 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.21536513 = score(doc=306,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
        0.21536513 = weight(_text_:2f in 306) [ClassicSimilarity], result of:
          0.21536513 = score(doc=306,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.65568775 = fieldWeight in 306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=306)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5386707&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5386707.
  6. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.22
    0.21536511 = product of:
      0.43073022 = sum of:
        0.061532892 = product of:
          0.18459867 = sum of:
            0.18459867 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.18459867 = score(doc=2918,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.18459867 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.18459867 = score(doc=2918,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.18459867 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.18459867 = score(doc=2918,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5 = coord(3/6)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  7. Nissen, K.; Dallmeyer, E.W.: ¬Der Satz im Silbensee : Aktuelle Wortspüle für das dritte Jahrtausend (2002) 0.17
    0.1654203 = product of:
      0.49626088 = sum of:
        0.4311865 = weight(_text_:humoristische in 1396) [ClassicSimilarity], result of:
          0.4311865 = score(doc=1396,freq=4.0), product of:
            0.39081004 = queryWeight, product of:
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.038742207 = queryNorm
            1.1033148 = fieldWeight in 1396, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              10.087449 = idf(docFreq=4, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1396)
        0.06507437 = product of:
          0.13014874 = sum of:
            0.13014874 = weight(_text_:darstellung in 1396) [ClassicSimilarity], result of:
              0.13014874 = score(doc=1396,freq=4.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.6061594 = fieldWeight in 1396, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1396)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    RSWK
    Deutsch / Wortschatz / Humoristische Darstellung
    Subject
    Deutsch / Wortschatz / Humoristische Darstellung
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.14
    0.14357674 = product of:
      0.28715348 = sum of:
        0.04102193 = product of:
          0.123065785 = sum of:
            0.123065785 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.123065785 = score(doc=701,freq=2.0), product of:
                0.32845685 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.038742207 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.123065785 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.123065785 = score(doc=701,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.123065785 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.123065785 = score(doc=701,freq=2.0), product of:
            0.32845685 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.038742207 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Handbuch der Künstlichen Intelligenz (2003) 0.11
    0.11293052 = product of:
      0.33879155 = sum of:
        0.32041994 = weight(_text_:intelligenz in 2916) [ClassicSimilarity], result of:
          0.32041994 = score(doc=2916,freq=22.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            1.4565228 = fieldWeight in 2916, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.01837162 = product of:
          0.03674324 = sum of:
            0.03674324 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.03674324 = score(doc=2916,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    54.72 / Künstliche Intelligenz
    Date
    21. 3.2008 19:10:22
    Footnote
    Bis 2. Aufl. u.d.T.: Einführung in die künstliche Intelligenz
    RSWK
    Künstliche Intelligenz
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    Subject
    Künstliche Intelligenz
  10. Lenzen, M: Natürliche und künstliche Intelligenz : Einführung in die Kognitionswissenschaft (2002) 0.08
    0.07974501 = product of:
      0.23923501 = sum of:
        0.19322048 = weight(_text_:intelligenz in 4296) [ClassicSimilarity], result of:
          0.19322048 = score(doc=4296,freq=8.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.8783163 = fieldWeight in 4296, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4296)
        0.04601453 = product of:
          0.09202906 = sum of:
            0.09202906 = weight(_text_:darstellung in 4296) [ClassicSimilarity], result of:
              0.09202906 = score(doc=4296,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.4286194 = fieldWeight in 4296, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4296)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Erforschung des menschlichen Geistes ist eines der spannendsten Unternehmen der Wissenschaft. Die Kognitionswissenschaft erforscht nicht nur abstrakte intellektuelle Leistungen wie etwa das Schachspiel, sondern die ganze Palette der Intelligenz: Sprache, Gedächtnis, Lernen, Wahrnehmung und Bewegung, neuerdings auch Emotionen und Bewusstsein. Diese Einführung bietet eine übersichtliche Darstellung der Entwicklung sowie der zentralen Probleme und Lösungsstrategien dieser neuen Disziplin. Manuela Lenzen studierte Philosophie in Bochum und Bielefeld. Als freie Wissenschaftsjournalistin schreibt sie u. a. für die Frankfurter Allgemeine und die Süddeutsche Zeitung, für die Frankfurter Rundschau und die Zeit.
    BK
    54.72 (Künstliche Intelligenz)
    Classification
    54.72 (Künstliche Intelligenz)
  11. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2004) 0.08
    0.078926146 = product of:
      0.23677844 = sum of:
        0.21822031 = weight(_text_:intelligenz in 1949) [ClassicSimilarity], result of:
          0.21822031 = score(doc=1949,freq=20.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.9919572 = fieldWeight in 1949, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1949)
        0.018558137 = product of:
          0.037116274 = sum of:
            0.037116274 = weight(_text_:22 in 1949) [ClassicSimilarity], result of:
              0.037116274 = score(doc=1949,freq=4.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.27358043 = fieldWeight in 1949, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Classification
    004.67/8 22
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
    DDC
    004.67/8 22
    RSWK
    Wissenstechnik / Inferenz <Künstliche Intelligenz>
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Electronic Commerce / Agent <Künstliche Intelligenz> / XML
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    ST 304 Informatik / Monographien / Künstliche Intelligenz / Automatisches Programmieren, Deduction and theorem proving, Wissensrepräsentation
    Subject
    Wissenstechnik / Inferenz <Künstliche Intelligenz>
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Electronic Commerce / Agent <Künstliche Intelligenz> / XML
  12. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.07
    0.06979705 = product of:
      0.20939113 = sum of:
        0.18309711 = weight(_text_:intelligenz in 642) [ClassicSimilarity], result of:
          0.18309711 = score(doc=642,freq=22.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.83229876 = fieldWeight in 642, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=642)
        0.026294017 = product of:
          0.052588034 = sum of:
            0.052588034 = weight(_text_:darstellung in 642) [ClassicSimilarity], result of:
              0.052588034 = score(doc=642,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.24492538 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.03125 = fieldNorm(doc=642)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    54.72 / Künstliche Intelligenz
    RSWK
    Künstliche Intelligenz / Lehrbuch
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    Subject
    Künstliche Intelligenz / Lehrbuch
  13. Was ist Denken? : Gehirn - Computer - Roboter (2003) 0.05
    0.046004876 = product of:
      0.27602926 = sum of:
        0.27602926 = weight(_text_:intelligenz in 99) [ClassicSimilarity], result of:
          0.27602926 = score(doc=99,freq=8.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            1.2547375 = fieldWeight in 99, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.078125 = fieldNorm(doc=99)
      0.16666667 = coord(1/6)
    
    RSWK
    Künstliche Intelligenz / Aufsatzsammlung
    Künstliche Intelligenz (BVB)
    Subject
    Künstliche Intelligenz / Aufsatzsammlung
    Künstliche Intelligenz (BVB)
  14. Schüler, P.: Wertes Wissen : Knowledge Management vermeidet Datenfriedhöfe (2001) 0.04
    0.043802615 = product of:
      0.13140784 = sum of:
        0.1104117 = weight(_text_:intelligenz in 6815) [ClassicSimilarity], result of:
          0.1104117 = score(doc=6815,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.501895 = fieldWeight in 6815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0625 = fieldNorm(doc=6815)
        0.020996137 = product of:
          0.041992273 = sum of:
            0.041992273 = weight(_text_:22 in 6815) [ClassicSimilarity], result of:
              0.041992273 = score(doc=6815,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.30952093 = fieldWeight in 6815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6815)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wer ohne spezielle Vorkenntnisse schnell in einem Thema Fuß fassen will, ist auf intelligente Recherchierhilfen angewiesen. Gurus der künstlichen Intelligenz kennen schon langm Wege, die Datenwelt besser als mit Schlagwort-Suchmaschinen nach Inhalten zu durchforsten - nur in der Praxis war davon wenig zu sehen. Aktuelle Software zum Content-Retrieval will die scheinbare Utopie verwirklichen
    Date
    8.11.2001 19:58:22
  15. Urchs, M.: Maschine, Körper, Geist : Eine Einführung in die Kognitionswissenschaft (2002) 0.04
    0.043486204 = product of:
      0.13045861 = sum of:
        0.09759109 = weight(_text_:intelligenz in 260) [ClassicSimilarity], result of:
          0.09759109 = score(doc=260,freq=4.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.44361675 = fieldWeight in 260, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=260)
        0.03286752 = product of:
          0.06573504 = sum of:
            0.06573504 = weight(_text_:darstellung in 260) [ClassicSimilarity], result of:
              0.06573504 = score(doc=260,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.30615672 = fieldWeight in 260, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=260)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Content
    "Was ist Intelligenz?", "Können Roboter denken?", "Wo entsteht Bewusstsein?", "Lässt sich Bewusstsein wissenschaftlich erklären?" Antworten auf solche Fragen werden beispielsweise in Psychologie, Informatik, Philosophie, Neurologie und Sprachwissenschaft gesucht. Allein kann sie keine dieser Einzeldisziplinen beantworten. Es bedarf einer gemeinsamen transdisziplinären Anstrengung. Aus ihr entsteht mit enormer Dynamik und noch gar nicht ganz abseh-baren Folgen ein neues Wissensgebiet: die Kognitionswissenschaft. Zentrale Elemente der Kognitionswissenschaft werden hier dargestellt. Informatik und Computerwissenschaft, Neurophysiologie und Philosophie des Geistes spannen den Problemrahmen auf, in dem die Lösungsstrategien der Kognitionswissenschaft für den Leser deutlich werden. Im Mittelpunkt stehen zwei Leitideen bei der Suche nach der künstlichen Intelligenz: der denkende Computer und das bewusste Gehirn. Die detaillierte Analyse der Potenzen und Grenzen herkömmlicher Rechner macht zunächst klar, warum man seinerzeit nach neuen Ansätzen suchen musste - immer schnellere Prozessoren und größere Speicher brachten einfach keinen Durchbruch. Solche neuen Ansätze wurden in der Erforschung natürlicher und künstlicher neuronaler Netze gefunden. Bei derartigen Untersuchungen ergeben sich auch sehr komplexe philosophische Probleme. Deren Analyse in der Philosophie des Geistes wird ausführlich behandelt. Gedanken zu möglichen gesellschaftlichen Auswirkungen kognitionswissenschaftlicher Forschungen, insbesondere für unser Menschenbild, runden die Darstellung ab. Dem Leser soll so ein eigenes Nach- und Weiterdenken und eine geistige Orientierung in der Fülle des explosionsartig anwachsenden Materials ermöglicht werden.
  16. Erbarth, M.: Wissensrepräsentation mit semantischen Netzen : Grundlagen mit einem Anwendungsbeispiel für das Multi-Channel-Publishing (2006) 0.04
    0.043486204 = product of:
      0.13045861 = sum of:
        0.09759109 = weight(_text_:intelligenz in 714) [ClassicSimilarity], result of:
          0.09759109 = score(doc=714,freq=4.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.44361675 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=714)
        0.03286752 = product of:
          0.06573504 = sum of:
            0.06573504 = weight(_text_:darstellung in 714) [ClassicSimilarity], result of:
              0.06573504 = score(doc=714,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.30615672 = fieldWeight in 714, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=714)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    "Wir ertrinken in Informationen, aber uns dürstet nach Wissen." Trendforscher John Naisbitt drückt hiermit aus, dass es dem Menschen heute nicht mehr möglich ist die Informationsflut, die sich über ihn ergießt, effizient zu verwerten. Er lebt in einer globalisierten Welt mit einem vielfältigen Angebot an Medien, wie Presse, Radio, Fernsehen und dem Internet. Die Problematik der mangelnden Auswertbarkeit von großen Informationsmengen ist dabei vor allem im Internet akut. Die Quantität, Verbreitung, Aktualität und Verfügbarkeit sind die großen Vorteile des World Wide Web (WWW). Die Probleme liegen in der Qualität und Dichte der Informationen. Das Information Retrieval muss effizienter gestaltet werden, um den wirtschaftlichen und kulturellen Nutzen einer vernetzten Welt zu erhalten.Matthias Erbarth beleuchtet zunächst genau diesen Themenkomplex, um im Anschluss ein Format für elektronische Dokumente, insbesondere kommerzielle Publikationen, zu entwickeln. Dieses Anwendungsbeispiel stellt eine semantische Inhaltsbeschreibung mit Metadaten mittels XML vor, wobei durch Nutzung von Verweisen und Auswertung von Zusammenhängen insbesondere eine netzförmige Darstellung berücksichtigt wird.
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
  17. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.04
    0.043088745 = product of:
      0.12926623 = sum of:
        0.10954572 = weight(_text_:intelligenz in 474) [ClassicSimilarity], result of:
          0.10954572 = score(doc=474,freq=14.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.49795854 = fieldWeight in 474, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0234375 = fieldNorm(doc=474)
        0.019720513 = product of:
          0.039441027 = sum of:
            0.039441027 = weight(_text_:darstellung in 474) [ClassicSimilarity], result of:
              0.039441027 = score(doc=474,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.18369403 = fieldWeight in 474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=474)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
    Das Buch stellt jedoch keine grundlegende (theoretische) Einführung in die Theorie der polykontexturalen Systeme dar und erfordert daher auch keine tieferen Kenntnisse über formale Logik, sondern ist - wie viele der Arbeiten Günthers - eine Sammlung mehrerer philosophischer Aufsätze zu den Themen 'Robotik', 'Künstliche Intelligenz' und 'Maschinenbewusstsein'. Allerdings diskutiert Günther diese Themen vor dem Hintergrund einer erweiterten Logik, die er zunächst als mehrwertige und später als mehrstellige und im Verlauf der weiteren Entwicklung seiner Theorie als polykontexturale Logik bezeichnet. Für die Lektüre genügen also elementare Kenntnisse einfacher logischer Verknüpfungen und/oder arithmetischer Relationen. Dieses Buch eignet sich daher vortrefflich als 'Einstiegslektüre' in die philosophischen Arbeiten Gotthard Günthers und ist auch für den fachlich interessierten Laien eine anregende und vor allen Dingen eine verständlich und logisch klar geschriebene Darstellung grundlegender philosophischer Fragen zu den Themen 'Bewusstsein' oder 'Selbstbewusstsein' und deren möglicher oder eben nicht möglicher technischer Realisierung.
    In dem Buch werden Themen wie z. B. der Gegensatz der kulturellen Vorstellung des faustischen Homunkulus auf der einen Seite und der des Robots auf der anderen Seite in geradezu spannender Art und Weise behandelt. In dem Beitrag 'Erkennen und Wollen' werden der scheinbare Gegensatz der Prozesse des Erkennens ('am Anfang war das Wort') und des Wollens ('am Anfang war die Tat') und die kulturellen Hintergründe dieser heute immer noch vorherrschenden dichotomen, d. h., zweigeteilten 'Entweder-Oder'-Vorstellung in der abendländischen Kultur diskutiert. Gerade dieser Beitrag, der in der vorliegenden Auflage neu hinzugekommen ist, bietet natürlich auch Anregungen für die Entwicklung intelligenter technischer Systeme - es handelt sich also um einen Aufsatz, der durchaus auch in einer Fachzeitschrift für künstliche Intelligenz hätte stehen können und der nicht nur für den Fachmann sondern auch für den interessierten und gebildeten Laien verständlich ist. Da Gotthard Günther neben Philosophie und Logik auch Indologie, klassisches Chinesisch, Sanskrit und vergleichende Religionswissenschaften studiert hat, kann sich der Leser über kleinere, kompetent geführte geistige Ausflüge in andere Kulturen erfreuen und sich zu weiteren Studien anregen lassen. Das ist im Zeitalter der Globalisierung sicherlich ein zusätzlicher Gewinn. Eine kurze Biographie Gotthard Günthers sowie eine kleine Einführung in seine Arbeiten sollen dem Leser nicht nur den Zugang zu diesem Autor und seinem Werk erleichtern, sondern ihm auch die Möglichkeit einer Zuordnung seiner Arbeiten - und das betrifft vor allem auch die Theorie der Polykontexturalität - vor dem Hintergrund der heutigen Gehirn- und künstlichen Intelligenz-Forschung geben. (Joachim Paul)
    RSWK
    Künstliche Intelligenz / Bewusstsein
    Subject
    Künstliche Intelligenz / Bewusstsein
  18. Münkel, A. (Red.): Computer.Gehirn : was kann der Mensch? Was können die Computer? ; Begleitpublikation zur Sonderausstellung im Heinz-Nixdorf-MuseumsForum (2001) 0.04
    0.043033622 = product of:
      0.25820172 = sum of:
        0.25820172 = weight(_text_:intelligenz in 491) [ClassicSimilarity], result of:
          0.25820172 = score(doc=491,freq=28.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            1.1736995 = fieldWeight in 491, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=491)
      0.16666667 = coord(1/6)
    
    BK
    54.72 / Künstliche Intelligenz
    Classification
    54.72 / Künstliche Intelligenz
    Content
    Enthält auch die Beiträge: BROOKS, R.A.: Künstliche Intelligenz und Roboterentwicklung - RITTER, H.: Die Evolution der künstlichen Intelligenz - ENGEL, A.K. u. W. SINGER: Neuronale Grundlagen des Bewußtseins - METZINGER, T.: Postbiotisches Bewußtsein: wie man ein künstliches Subjekt baut - und warum wir es nicht tun sollten - HARA, F.: Gesichtsrobotik und emotional computing
    RSWK
    Roboter / Künstliche Intelligenz / Aufsatzsammlung
    KI / Künstliche Intelligenz / Roboter / Fuzzylogik (ÖVK)
    Roboter / Künstliche Intelligenz / Mensch / Intelligenz / Ausstellung / Paderborn <2001> (HeBIS)
    Roboter / Künstliche Intelligenz / Ausstellung / Paderborn «2001» (BVB)
    Subject
    Roboter / Künstliche Intelligenz / Aufsatzsammlung
    KI / Künstliche Intelligenz / Roboter / Fuzzylogik (ÖVK)
    Roboter / Künstliche Intelligenz / Mensch / Intelligenz / Ausstellung / Paderborn <2001> (HeBIS)
    Roboter / Künstliche Intelligenz / Ausstellung / Paderborn «2001» (BVB)
  19. Boltzendahl, S.: Ontologien in digitalen Bibliotheken unter dem Schwerpunkt Inhaltserschliessung und Recherche (2004) 0.04
    0.04120515 = product of:
      0.12361544 = sum of:
        0.07807287 = weight(_text_:intelligenz in 1414) [ClassicSimilarity], result of:
          0.07807287 = score(doc=1414,freq=4.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.3548934 = fieldWeight in 1414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=1414)
        0.04554258 = product of:
          0.09108516 = sum of:
            0.09108516 = weight(_text_:darstellung in 1414) [ClassicSimilarity], result of:
              0.09108516 = score(doc=1414,freq=6.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.42422324 = fieldWeight in 1414, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1414)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Thema dieser Arbeit sind formale Ontologien in digltalen Bibliotheken. DIese Entwicklung der Künstlichen Intelligenz repräsentiert die Begrifflichkeit eInes Fachgebietes oder thematischen Bereiches sowohl auf konzeptueller wie auf terminologischer Ebene, die durch vielfältige Beziehungen zwischen den Termen und integrierten Schlussregeln "intelligentes" Suchen in Textdokumenten ermöglichen sollen. Ein Einsatz in digitalen Bibliotheken zur Bewältigung von Anforderungen des Information Retrieval und der Interoperabilität ist daher nahe liegend. Die vorliegende Arbeit betrachtet die Nutzung von Ontologien für Recherche und Inhaltserschließung in digitalen Bibliotheken und setzt sie in Beziehung zu den herkömmlichen dokumentarischen Hilfsmitteln Klassifikation und Thesaurus. Es zeigt sich, dass die Zielsetzungen bei der Entwicklung von formalen Ontologien nicht weit von den Anforderungen an moderne elektronische Thesauri entfernt sind.
    Die vorliegende Arbeit befasst sich mit Anwendungsmöglichkeiten von "formalen Ontologien" in digitalen Bibliotheken. Der Schwerpunkt liegt dabei auf der Inhaltserschließung und der Recherche, also dem Information Retrieval. Ontologien sind neuere Entwicklungen der künstlichen Intelligenz, die es sich zur Aufgabe gemacht haben, die Semantik elektronisch gespeicherter Daten zu beschreiben. Sie versprechen, damit angesichts einer steigenden Informationsflut" weltweiter Vemetzung und einem auch wirtschaftlich immer wichtiger werdenden Zugang zu und Austausch von Information und Wissen intelligente Lösungen zu liefern. Durch die Darstellung von gegenstandsbezogenem Wissen sollen mit Hilfe von Ontologien semantische Heterogenität behandelt und Integriert, intelligente Recherchemöglichkeiten auch für große Datenmengen eröffnet und damit Lösungen v.a. für das Wissensmanagement geboten werden. In dieser Arbeit soll der Frage nachgegangen werden, was unter Ontologien in diesem Sinne zu verstehen ist, wie sie in digitalen BIbliotheken als neuen Informationssystemen eingesetzt werden können und was sie im Verhältnis zu herkömmlichen Hilfsmitteln im Information Retrieval leisten. Dafür soll zunächst erläutert werden, was formale Ontologien sind und wo und zu welchen Zwecken sie eingesetzt werden können (Kapitel 2). Im darauf folgenden Kapitel sollen zunächst Anforderungen an das Information Retrieval in digitalen Bibliotheken skizziert werden und mögliche Einsatzbereiche von Ontologien aufgezeigt werden (Kapitel 3). Dieses Kapitel wird durch Beispiele von konkreten Projekten, die Ontologien in digitalen Bibliotheken einsetzen, ergänzt. Schließlich sollen in Kapitel 4 Ontologien in Beziehung gesetzt werden zu herkömmlichen dokumentarischen Hilfsmitteln der Inhaltserschließung und Recherche, v.a. dem Thesaurus. Bei dieser Darstellung kann es sich nur um einen allgemeinen Überblick über den Themenbereich handeln, eine genauere Darstellung würde den Rahmen dieser Arbeit sprengen. Auf einige Probleme und mögliche Untersuchungsbereiche" die sich für den Einsatz von Ontologien in digitalen Bibliotheken stellen, soll jedoch noch am Schluss dieser Arbeit (Kapitel 5) hingewiesen werden. Auf besondere Ansätze z.B. in der Thesaurusforschung (wie z.B. einem "semiotischen Thesaurus" (vgl. Schwarz/Umstätter) kann in diesem Rahmen nicht eingegangen werden.
  20. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.04
    0.04030326 = product of:
      0.12090977 = sum of:
        0.1104117 = weight(_text_:intelligenz in 3284) [ClassicSimilarity], result of:
          0.1104117 = score(doc=3284,freq=8.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.501895 = fieldWeight in 3284, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.010498068 = product of:
          0.020996137 = sum of:
            0.020996137 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.020996137 = score(doc=3284,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Date
    22. 1.2010 14:41:24

Languages

Types

  • a 1208
  • m 248
  • el 77
  • s 71
  • x 34
  • b 26
  • i 12
  • r 3
  • n 2
  • l 1
  • More… Less…

Themes

Subjects

Classifications