Search (410 results, page 1 of 21)

  • × type_ss:"m"
  1. Barnsley, M.F.; Hurd, L.P.: Fractal image compression (1993) 0.17
    0.16616261 = product of:
      0.33232522 = sum of:
        0.26511928 = weight(_text_:maschinelles in 1546) [ClassicSimilarity], result of:
          0.26511928 = score(doc=1546,freq=4.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.7555595 = fieldWeight in 1546, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.046875 = fieldNorm(doc=1546)
        0.067205936 = product of:
          0.13441187 = sum of:
            0.13441187 = weight(_text_:sehen in 1546) [ClassicSimilarity], result of:
              0.13441187 = score(doc=1546,freq=4.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.53798085 = fieldWeight in 1546, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1546)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    BK
    54.74 / Maschinelles Sehen
    Classification
    54.74 / Maschinelles Sehen
  2. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.16
    0.16135228 = product of:
      0.32270455 = sum of:
        0.08067614 = product of:
          0.2420284 = sum of:
            0.2420284 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.2420284 = score(doc=5955,freq=2.0), product of:
                0.36912143 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043538682 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
        0.2420284 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.2420284 = score(doc=5955,freq=2.0), product of:
            0.36912143 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043538682 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  3. Barnsley, M.F.; Hurd, L.P.: Bildkompression mit Fraktalen (1996) 0.14
    0.13846885 = product of:
      0.2769377 = sum of:
        0.22093275 = weight(_text_:maschinelles in 1547) [ClassicSimilarity], result of:
          0.22093275 = score(doc=1547,freq=4.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.62963295 = fieldWeight in 1547, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1547)
        0.05600495 = product of:
          0.1120099 = sum of:
            0.1120099 = weight(_text_:sehen in 1547) [ClassicSimilarity], result of:
              0.1120099 = score(doc=1547,freq=4.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.44831738 = fieldWeight in 1547, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1547)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    BK
    54.74 / Maschinelles Sehen
    Classification
    54.74 / Maschinelles Sehen
  4. Herrmann, J.: Maschinelles Lernen und wissensbasierte Systeme : Systematische Einführung mit praxisorientierten Fallstudien (1997) 0.14
    0.13529313 = product of:
      0.5411725 = sum of:
        0.5411725 = weight(_text_:maschinelles in 5636) [ClassicSimilarity], result of:
          0.5411725 = score(doc=5636,freq=6.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            1.5422795 = fieldWeight in 5636, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.078125 = fieldNorm(doc=5636)
      0.25 = coord(1/4)
    
    RSWK
    Wissensbasis / Lebenszykluskonzept / Maschinelles Lernen (213) (321)
    Subject
    Wissensbasis / Lebenszykluskonzept / Maschinelles Lernen (213) (321)
  5. Vidyasagar, M.: ¬A theory of learning and generalization : with applications to neural networks and control systems (1997) 0.12
    0.12497844 = product of:
      0.49991375 = sum of:
        0.49991375 = weight(_text_:maschinelles in 1973) [ClassicSimilarity], result of:
          0.49991375 = score(doc=1973,freq=8.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            1.4246967 = fieldWeight in 1973, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.0625 = fieldNorm(doc=1973)
      0.25 = coord(1/4)
    
    RSWK
    Neuronales Netz / Maschinelles Lernen (21)
    Regelungssystem / Maschinelles Lernen (21)
    Subject
    Neuronales Netz / Maschinelles Lernen (21)
    Regelungssystem / Maschinelles Lernen (21)
  6. Handbuch der Künstlichen Intelligenz (2003) 0.12
    0.11967918 = product of:
      0.23935837 = sum of:
        0.21871226 = weight(_text_:maschinelles in 2916) [ClassicSimilarity], result of:
          0.21871226 = score(doc=2916,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.6233048 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.020646116 = product of:
          0.04129223 = sum of:
            0.04129223 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.04129223 = score(doc=2916,freq=2.0), product of:
                0.15246505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043538682 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    Date
    21. 3.2008 19:10:22
  7. Information visualization in data mining and knowledge discovery (2002) 0.07
    0.07248742 = product of:
      0.14497484 = sum of:
        0.0883731 = weight(_text_:maschinelles in 1789) [ClassicSimilarity], result of:
          0.0883731 = score(doc=1789,freq=4.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.25185317 = fieldWeight in 1789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.015625 = fieldNorm(doc=1789)
        0.05660174 = sum of:
          0.04480396 = weight(_text_:sehen in 1789) [ClassicSimilarity], result of:
            0.04480396 = score(doc=1789,freq=4.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.17932695 = fieldWeight in 1789, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.015625 = fieldNorm(doc=1789)
          0.011797781 = weight(_text_:22 in 1789) [ClassicSimilarity], result of:
            0.011797781 = score(doc=1789,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.07738023 = fieldWeight in 1789, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=1789)
      0.5 = coord(2/4)
    
    BK
    54.74 / Maschinelles Sehen
    Classification
    54.74 / Maschinelles Sehen
    Date
    23. 3.2008 19:10:22
  8. Angehrn, E.: ¬Die Überwindung des Chaos : zur Philosophie des Mythos (1996) 0.03
    0.032609224 = product of:
      0.1304369 = sum of:
        0.1304369 = sum of:
          0.095043555 = weight(_text_:sehen in 2811) [ClassicSimilarity], result of:
            0.095043555 = score(doc=2811,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.38040993 = fieldWeight in 2811, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.046875 = fieldNorm(doc=2811)
          0.035393342 = weight(_text_:22 in 2811) [ClassicSimilarity], result of:
            0.035393342 = score(doc=2811,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.23214069 = fieldWeight in 2811, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2811)
      0.25 = coord(1/4)
    
    Abstract
    In mehrfacher Hinsicht erscheint der Mythos als das Andere gegenüber der uns vertrauten Vorstellungswelt. Im Spiegel des Mythos sich selber erkennen - dies ist der Fluchtpunkt der hier unternommenen Reflexion auf den Mythos. Sich im Anderen erkennen, verlangt zweierlei: das Andere in seiner Eigenart zu begreifen und in ihm nicht nur das beziehungslos Fremde zu sehen. Diesem doppelten Ziel ist die vorliegende Untersuchung verpflichtet. Genauer ist der Horizont, in den sie sich situiert, durch den Gang vom Mythos zur Philosophie definiert; ihr Gegenstand ist der Mythos als Vorgeschichte der Metaphysik.
    Date
    15.11.2009 13:01:22
  9. Steiner, J.: Internet : Nachschlagen, sehen, durchblicken (1995) 0.03
    0.031681184 = product of:
      0.12672473 = sum of:
        0.12672473 = product of:
          0.25344947 = sum of:
            0.25344947 = weight(_text_:sehen in 3244) [ClassicSimilarity], result of:
              0.25344947 = score(doc=3244,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                1.0144265 = fieldWeight in 3244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.125 = fieldNorm(doc=3244)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  10. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.03
    0.03124461 = product of:
      0.12497844 = sum of:
        0.12497844 = weight(_text_:maschinelles in 752) [ClassicSimilarity], result of:
          0.12497844 = score(doc=752,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.35617417 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.25 = coord(1/4)
    
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
  11. Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013) 0.03
    0.027339032 = product of:
      0.10935613 = sum of:
        0.10935613 = weight(_text_:maschinelles in 4382) [ClassicSimilarity], result of:
          0.10935613 = score(doc=4382,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.3116524 = fieldWeight in 4382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
      0.25 = coord(1/4)
    
    Content
    B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
  12. Lenzen, M.: Künstliche Intelligenz : was sie kann & was uns erwartet (2018) 0.03
    0.027174352 = product of:
      0.10869741 = sum of:
        0.10869741 = sum of:
          0.07920296 = weight(_text_:sehen in 4295) [ClassicSimilarity], result of:
            0.07920296 = score(doc=4295,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.31700826 = fieldWeight in 4295, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4295)
          0.029494451 = weight(_text_:22 in 4295) [ClassicSimilarity], result of:
            0.029494451 = score(doc=4295,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.19345059 = fieldWeight in 4295, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=4295)
      0.25 = coord(1/4)
    
    Abstract
    Künstliche Intelligenz (KI) steht für Maschinen, die können, was der Mensch kann: hören und sehen, sprechen, lernen, Probleme lösen. In manchem sind sie inzwischen nicht nur schneller, sondern auch besser als der Mensch. Wie funktionieren diese klugen Maschinen? Bedrohen sie uns, machen sie uns gar überflüssig? Die Journalistin und KI-Expertin Manuela Lenzen erklärt anschaulich, was Künstliche Intelligenz kann und was uns erwartet. Künstliche Intelligenz ist das neue Zauberwort des digitalen Kapitalismus. Intelligente Computersysteme stellen medizinische Diagnosen und geben Rechtsberatung. Sie managen den Aktienhandel und steuern bald unsere Autos. Sie malen, dichten, dolmetschen und komponieren. Immer klügere Roboter stehen an den Fließbändern, begrüßen uns im Hotel, führen uns durchs Museum oder braten Burger und schnipseln den Salat dazu. Doch neben die Utopie einer schönen neuen intelligenten Technikwelt sind längst Schreckbilder getreten: von künstlichen Intelligenzen, die uns auf Schritt und Tritt überwachen, die unsere Arbeitsplätze übernehmen und sich unserer Kontrolle entziehen. Manuela Lenzen zeigt, welche Hoffnungen und Befürchtungen realistisch sind und welche in die Science Fiction gehören. Sie beschreibt, wie ein gutes Leben mit der Künstlichen Intelligenz aussehen könnte - und dass wir von klugen Maschinen eine Menge über uns selbst lernen können.
    Date
    18. 6.2018 19:22:02
  13. Günther, G.: ¬Das Bewußtsein der Maschinen : Sammlung ; eine Metaphysik der Kybernetik (2002) 0.02
    0.023433456 = product of:
      0.093733825 = sum of:
        0.093733825 = weight(_text_:maschinelles in 474) [ClassicSimilarity], result of:
          0.093733825 = score(doc=474,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.2671306 = fieldWeight in 474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.0234375 = fieldNorm(doc=474)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch 'Das Bewusstsein der Maschinen' des deutsch-amerikanischen Philosophen und Logikers Gotthard Günther (1900-1984) erschien bereits 1957 und in einer erweiterten 2. Auflage im Jahr 1963. Was damals sensationell wirkte, ist heute Bestandteil unseres philosophischen Bewusstseins geworden: die Hereinnahme der Kybernetik nicht nur in unsere praktisch-technische Welt, sondern auch in die philosophische Spekulation wie in unsere soziologische Reflexion. Immer aber noch ist die Lektüre der Güntherschen Theoreme und Einsichten für Wissenschaftler wie auch für den Laien aufregend, die Revolutionierung unseres gesamten Denkens offenbar. Daß die maschinelle Intelligenz den Leistungen des menschlichen Bewusstseins überlegen sein kann - wer bestreitet das heute noch? Daß aber mit dem Maschinenbewusstsein die alten Denkgewohnheiten des Menschen aus den Angeln gehoben und alle klassischen Schemata wie auch die dialektische Spekulation auf einen mehr oder minder aufwendigen Schutthaufen geworfen sind - dagegen werden die philosophischen Lehrstühle sich noch lange wehren. - Auch diese erweiterte Auflage des Güntherschen Buches ist kein Abschluß und kein System, sondern Frage und Anregung zur Metaphysik unseres Jahrhunderts. Die jetzt nach etwa 40 Jahren erneut aufgelegte und nochmals erweiterte Ausgabe ist - betrachtet man den heutigen Stand der Diskussionen um die Themen 'Künstliche Intelligenz', 'Maschinelles Lernen' oder 'Maschinenbewusstsein' - nicht nur aus philosophischer sondern vor allem aus wissenschaftslogischer Sicht seiner Zeit immer noch weit voraus. Dies begründet sich insbesondere darin, dass Gotthard Günther nicht nur einen Entwurf geliefert, sondern im Verlauf seiner wissenschaftlichen Tätigkeiten am Biological Computer Laboratory (BCL) in Illinois (Urbana) auch die Grundlagen zu einer nichtaristotelischen Logik gelegt hat, die sich am besten unter dem Begriff 'Theorie polykontexturaler Systeme' subsumieren lassen.
  14. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.02
    0.021225652 = product of:
      0.08490261 = sum of:
        0.08490261 = sum of:
          0.067205936 = weight(_text_:sehen in 729) [ClassicSimilarity], result of:
            0.067205936 = score(doc=729,freq=4.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.26899043 = fieldWeight in 729, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
          0.017696671 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
            0.017696671 = score(doc=729,freq=2.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.116070345 = fieldWeight in 729, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  15. Harari, Y.N.: Homo deus : eine Geschichte von Morgen (2017) 0.02
    0.021160023 = product of:
      0.08464009 = sum of:
        0.08464009 = sum of:
          0.055442072 = weight(_text_:sehen in 4066) [ClassicSimilarity], result of:
            0.055442072 = score(doc=4066,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.2219058 = fieldWeight in 4066, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4066)
          0.029198019 = weight(_text_:22 in 4066) [ClassicSimilarity], result of:
            0.029198019 = score(doc=4066,freq=4.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.19150631 = fieldWeight in 4066, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=4066)
      0.25 = coord(1/4)
    
    Content
    Kommentare: "Keine leichte Lektüre, doch wer auf den Horizont blickt, kann diesen auch erweitern." (Thorsten Schäfer-Gümbel, vorwärts.de, Lesetipp von SPD Spitzenpolitikern, 15. August 2017) "Das beste Buch dieses Frühjahrs." (Thorsten Giersch, Carina Kontio, Handelsblatt online, 29. Juni 2017) "Ein Sachbuch, so anregend, dass man dazu tanzen möchte!" (Denis Scheck, ARD Druckfrisch, 2. Juli 2017) "A thoughtful look of what may be in store for humanity (...). It is a deeply engaging book with lots of stimulating ideas (...). It makes you think about the future, which is another way of saying it makes you think about the present." (Bill Gates, via Facebook, 4. Juni 2017) "Yuval Noah Harari's insights are compelling." (Paul Collier, TLS, 25. November 2016 ) "Challenging, readable and thought-provoking." (Bill Gates, Gates Notes, Bill Gates' Sommer-Buchtipps, 22. Mai 2017) "Man sollte alle Geschichtslehrer von Harari coachen lassen." (Christian Jostmann, Die Furche, 20. April 2017) "Vielleicht brauchen wir ja düstere Szenarien, wie Hararis Buch 'Homo Deus', um den Mut für neue Utopien zu finden." (Sven Waskönig, ARD ttt, 30. April 2017)
    "In einer verblüffenden Tour d'Horizon durch die Menschheitsgeschichte beschreibt Harari, wie der Mensch in einem Akt wachsender Selbstermächtigung zum Homo Deus avanciert." (Adrian Lobe, Zeit Online, 10. April 2017) "(Harari) hat ein anmaßendes Buch geschrieben. Und ein aufregendes." (Erik Raidt, Stuttgarter Nachrichten Online, 31. März 2017) "Intelligent, scharfsinnig und manchmal sogar überraschend witzig (...) eröffnet einen ganz anderen Blick auf Geschichte." (Klaus Bittermann, taz literataz, 22. März 2017) "Überraschend, informativ, abwechslungsreich und leicht zu lesen." (Hildegard Lorenz, Münchner Merkur, 21. März 2017) "Sehen, wie die Welt ist, ohne auf die Bremse zu treten. Das ist der Sound von Yuval Noah Hararis 'Homo Deus'." (Adolf Holl, Die Presse, 18. März 2017) "Hararis packendes Buch ist ein Bekenntnis zum Humanismus." (Thomas Vasek, P.M., 10. März 2017) "Überaus anregende und fesselnde Lektüre." (Wolfgang Schneider, SWR2, 19. Februar 2017) "Fulminant, klug und düster." (Deutschlandradio Kultur, März 2017)
  16. Rock, I.: Wahrnehmung : vom visuellen Reiz zum Sehen und Erkennen (1985) 0.02
    0.01980074 = product of:
      0.07920296 = sum of:
        0.07920296 = product of:
          0.15840591 = sum of:
            0.15840591 = weight(_text_:sehen in 2658) [ClassicSimilarity], result of:
              0.15840591 = score(doc=2658,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.6340165 = fieldWeight in 2658, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2658)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  17. Gregory, R.L.: Auge und Gehirn : Psychologie des Sehens (2001) 0.02
    0.01980074 = product of:
      0.07920296 = sum of:
        0.07920296 = product of:
          0.15840591 = sum of:
            0.15840591 = weight(_text_:sehen in 73) [ClassicSimilarity], result of:
              0.15840591 = score(doc=73,freq=8.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.6340165 = fieldWeight in 73, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=73)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Optische Täuschungen und Illusionen, die Entstehung von Farbeindrücken im Gehirn, das Sehenlernen bei Babys, Kunst und Realität und die physiologischen Grundlagen des gesamten Wahrnehmungsprozesses sind Themen dieses Buches, das seit 1966 als die maßgebliche Einführung in die Neuropsychologie des Sehens gilt. Der vollständig überarbeitete Klassiker ist ein optischer Augenschmaus: ausgestattet mit einer Fülle von Graphiken und zwei farbigen Bildtafelteilen. Visuelle Wahrnehmung ist die Basis all unserer Erfahrungen und unseres Verstehens, sei es in der Wissenschaft, in der Kunst oder im Alltag. Das Studium der Wahrnehmung spielt für das, was früher - und in Schottland noch heute - mit dem wunderbaren Begriff Experimentelle Philosophie bezeichnet wurde, eine zentrale Rolle. Denn schließlich beleben Fragen und Spekulationen jede interessante Wissenschaft. (...) «Dies ist eine Einladung zu einer Reise, auf der es darum geht, darüber nachzudenken, wie wir sehen. Niemand anders kann vollkommen für uns sehen oder denken. Ich kann nur hoffen, dass dieses Buch informativ und gleichzeitig unterhaltsam ist.»
    Content
    Enthält die Kapitel: Sehen - Licht - Das Auge - Das Gehirn - Helligkeitssehen - Bewegungssehen - Farbensehen - Sehen lernen - Kunst und Wirklichkeit - Wahrnehmungstäuschungen - Spekulationen
  18. Sammeln - Sichern - Sichten - Sehen (2011) 0.02
    0.01980074 = product of:
      0.07920296 = sum of:
        0.07920296 = product of:
          0.15840591 = sum of:
            0.15840591 = weight(_text_:sehen in 3784) [ClassicSimilarity], result of:
              0.15840591 = score(doc=3784,freq=2.0), product of:
                0.24984509 = queryWeight, product of:
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.043538682 = queryNorm
                0.6340165 = fieldWeight in 3784, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.7384624 = idf(docFreq=386, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3784)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
  19. Ferber, R.: Information Retrieval : Data Mining-Verfahren für Textsammlungen und das Web (2003) 0.02
    0.01952788 = product of:
      0.07811152 = sum of:
        0.07811152 = weight(_text_:maschinelles in 1848) [ClassicSimilarity], result of:
          0.07811152 = score(doc=1848,freq=2.0), product of:
            0.35089135 = queryWeight, product of:
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.043538682 = queryNorm
            0.22260886 = fieldWeight in 1848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.059301 = idf(docFreq=37, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in nfd - Information 54(2003) H.6, S.380-381 (M. Hauer): "Wer unter Amazon.de nach aktueller Fachliteratur zum Thema Information Retrieval sucht, kommt mit gutem Grund auf Reginald Ferber. Er kommt von der mathematischen Modellierung zum Information Retrieval und hat im Rahmen seiner Forschung und Lehre das Feld breit ausgeleuchtet. Sein Buch bezeichnet sich als Einführungswerk für Informatiker, Informationswissenschaftler, Bibliothekare, Dokumentare und Studierende. Gewiss, es ist ein Einführungswerk, weil es darum bemüht ist, das Feld komplett auszuleuchten. Vergleicht man dieses gegen die rund 38o Titel zum Feld Information Retrieval aus dem Springer Verlag dem großen Nachbarn in Heidelberg, so trifft diese Einschätzung zu, denn dort werden primär einzelne Ansätze beleuchtet. Sehr systematisch erarbeitet Ferber die grundlegenden Modelle und Methoden des Information Retrieval, Data Mining und deren Umfeld. Dennoch ist es in weiten Teilen ohne einige Semester Mathematik und ohne gute Informatik-Grundlagen nicht verständlich. Ferber überzeugt schon im ersten von vier Kapiteln über "Grundlagen und klassische IR-Methoden" mit einer guten Kenntnis der Retrieval-Praxis und Problematik. Einführend grenzt er Fakten- und Information Retrieval, Hypertext, Expertensysteme, Management-Informationssysteme, Data Mining, Kategorisierung, assoziative Regeln und Wissensgewinnung ab. Im Kapitel Grundlagen definiert er Information Retrieval letztlich in Übereinstimmung mit der Gesellschaft für Informatik, die eine Fachgruppe dazu unterhält. Vagheit, Unschärfe und Unsicherheit prägen letztlich die Aufgabe des Information Retrieval als eine Gruppe von Verfahren mit dem Ziel des Austauschs von Wissen zwischen Menschen. Im Dialog zwischen Informatik und Kognitionswissenschaften sieht er noch viele offene Fragen. Einfach gesagt: Wenn jemand bei Google ein Suchwort eintippt, woher soll der Rechner dann wissen, welche Antwort für diesen Menschen in dieser Situation gerade die beste ist? Auf rund 70 Seiten erarbeitet er alle wesentlichen Retrieval-Ansätze bis zum Vektorraum-Modell und TREC, dem jährlichen wissenschaftlichen Wettkampf der Systeme. Es geht um boolesche Techniken und ihre Schwächen, um Klassifikationsund Thesauruskonzepte, linguistische Verfahren, Gewichtungsverfahren, Relevance Feedback, Vektorraum und die Messverfahren für Retrievalqualität. Auf den nächsten 70 Seiten führt er die Grundlagen der statistischen Verfahren ein, die heute als Data-Mining oder TextMining bezeichnet werden. Hier geht es um maschinelles Lernen, Kategorisierung, Clustering und assoziative Regeln. Spätestens hier wird der gewöhnliche Dokumentar oder Bibliothekar stöhnen was nicht gegen das Buch spricht, nur gegen deren traditionelle Ausbildung. Deutlich wird dabei, dass mit mathematischen Verfahren die klassischen Verfahren im Ergebnis erreicht werden sollen: Kategorisierung (wenige Hauptschlagworte), Clustering (Klassen) oder eben thesaurusähnliche Termpaarbildungen. Das Ziel ist weitgehend gleich doch die Zielerreichung grundlegend verschieden. Genau diese mathematischen Verfahren werden im dritten Kapitel weiter vertieft. Insbesondere die korpusbasierten Verfahren sind hier wichtig, wie kann man in einer ganzen großen Menge sinnvolle Termpaare oder gar Termnetze finden, also Kookurrenzen, Begriffe, die signifikant häufig gemeinsam vorkommen. Solche Verfahren sind auch im multilingualen Retrieval interessant, um automatisch sinnvolle Übersetzungen zu finden, indem Texte, die in mehreren Sprachen vorliegen jeweils auf Paare untersucht werden. Solche Netze können teils mit Lehrer trainiert, nachträglich korrigiert oder ohne Aufsicht entstehen. Ferber zeigt sachlich neutral die Verfahren auf, eine klare Entscheidung des Autors für das eine oder andere Verfahren ist nicht zu erkennen. Diese Position ist durch die TRECErgebnisse begründet, denn bislang konnte sich noch keines der Verfahren weit vom Durchschnitt entfernen. Und stets hängt die Eignung auch stark am Textkorpus und Einsatzzweck.
  20. Notess, G.R.: Teaching Web search skills : techniques and strategies of top trainers (2006) 0.02
    0.018137163 = product of:
      0.07254865 = sum of:
        0.07254865 = sum of:
          0.047521777 = weight(_text_:sehen in 201) [ClassicSimilarity], result of:
            0.047521777 = score(doc=201,freq=2.0), product of:
              0.24984509 = queryWeight, product of:
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.043538682 = queryNorm
              0.19020496 = fieldWeight in 201, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.7384624 = idf(docFreq=386, maxDocs=44218)
                0.0234375 = fieldNorm(doc=201)
          0.025026873 = weight(_text_:22 in 201) [ClassicSimilarity], result of:
            0.025026873 = score(doc=201,freq=4.0), product of:
              0.15246505 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043538682 = queryNorm
              0.16414827 = fieldWeight in 201, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=201)
      0.25 = coord(1/4)
    
    Classification
    025.04071 / 22
    DDC
    025.04071 / 22
    Footnote
    Rez. in: Online-Mitteilungen 2007, H.89, S.17-18 (M. Katzmayr): "Eine der Herausforderungen, der sich Web-Trainerinnen regelmäßig ausgesetzt sehen, besteht in der Kurzlebigkeit der Recherchetools und ihrer ständig wechselnden Funktionalitäten. Wer spricht heute noch von den Suchmaschinen AltaVista oder Lycos? (Hoffentlich) niemand mehr. Diese Dynamik in der Internetbranche wirkt allerdings auf viele potentielle Vortragende abschreckend, scheint es doch ein unzumutbarer Aufwand zu sein, sich laufend über neue Entwicklungen zu informieren. Wer darunter leidet oder zum ersten Mal eine Webschulung vorbereitet, sollte einen Blick in das vorliegende Buch werfen. Dessen Autor, Greg. R. Notess ist im Bereich des praktischen Web Information Retrieval kein Unbekannter: der Auskunftsbibliothekar an der Montana State University hat sich als Betreiber der Website Search Engine Showdown (http://www.search engineshowdown.com), vielgereister Vortragender, erfahrener Didaktiker und regelmäßiger Autor der Zeitschrift Online einen exzellenten Ruf in der Internet-Gemeinde erworben. Nun liegen seine Kenntnisse zur Vermittlung der Webrecherche auch als Monographie vor, die sich an Leiterinnen von Webschulungen richtet. Zum einen finden sich darin eine Vielzahl an didaktischen und organisatorischen Hinweisen zur Planung und Durchführung von Webschulungen. So werden z.B. die verschiedenen Typen von Kursteilnehmerinnen beschrieben und welchen Problemen sich Anfängerinnen in der Webrecherche in der Regel gegenübersehen. Es werden die verschiedenen Arten von Schulungen (Frontalvorträge, Schulungen mit Übungsmöglichkeiten und Online-Tutorials) mit ihren jeweiligen Vor- und Nachteilen sowie idealtypischen Einsatzmöglichkeiten dargestellt, weiters werden Hinweise zu Zielsetzungen und Länge von Kursen gegeben.

Languages

  • d 241
  • e 160
  • m 3
  • de 1
  • pl 1
  • More… Less…

Types

  • s 75
  • i 14
  • el 6
  • b 1
  • d 1
  • n 1
  • u 1
  • x 1
  • More… Less…

Themes

Subjects

Classifications