Search (6 results, page 1 of 1)

  • × author_ss:"Bischoff, M."
  • × year_i:[2020 TO 2030}
  1. Bischoff, M.: Was steckt hinter ChatGTP & Co? (2023) 0.02
    0.020087574 = product of:
      0.050218932 = sum of:
        0.037061106 = weight(_text_:den in 1013) [ClassicSimilarity], result of:
          0.037061106 = score(doc=1013,freq=4.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.35827476 = fieldWeight in 1013, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=1013)
        0.013157828 = product of:
          0.03947348 = sum of:
            0.03947348 = weight(_text_:29 in 1013) [ClassicSimilarity], result of:
              0.03947348 = score(doc=1013,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 1013, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1013)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Erste Sprachmodelle gab es schon in den 1950er Jahren. Doch erst durch den massiven Zuwachs an Computerleistung sind KI-Technologien wie DeepL und GPT heute in der Lage, menschliche Sprache praktisch fehlerfrei zu verarbeiten und zu produzieren. Entscheidend dabei war die Imitation einer ganz besonderen Fähigkeit unseres Gehirns.
    Date
    12. 4.2023 20:29:54
  2. Bischoff, M.: ¬Das grosse Experiment (2021) 0.01
    0.00655154 = product of:
      0.0327577 = sum of:
        0.0327577 = weight(_text_:den in 329) [ClassicSimilarity], result of:
          0.0327577 = score(doc=329,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.31667316 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.078125 = fieldNorm(doc=329)
      0.2 = coord(1/5)
    
    Abstract
    Zahlreiche konkurrierende wissenschaftliche Theorien versuchen, das Bewusstsein zu beschreiben. In einer noch nie da gewesenen Kollaboration finden nun weltweit Versuche an hunderten Probanden statt, um zwei der führenden Ansätze auf den Prüfstand zu stellen.
  3. Bischoff, M.: ¬Das Dornröschen-Problem spaltet die Mathewelt : Die fabelhafte Welt der Mathematik (2023) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 940) [ClassicSimilarity], result of:
          0.028369 = score(doc=940,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 940, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=940)
      0.2 = coord(1/5)
    
    Abstract
    Seit mehr als 20 Jahren streiten sich Fachleute über den Ausgang eines Gedankenexperiments: Lautet die Antwort ½ oder ?? Beide Seiten haben überzeugende Argumente. Welchem Lager gehören Sie an?
    Content
    "Das Problem, das die Gemüter der Fachwelt erhitzt, lautet folgendermaßen: Dornröschen erklärt sich bereit, an einem Experiment teilzunehmen, bei dem sie sonntags in Schlaf versetzt wird. Ein Experimentator wirft dann eine Münze. Bei »Kopf« weckt er Dornröschen am Montag auf und verabreicht ihr dann wieder ein Schlafmittel und lässt sie bis Mittwoch schlafen. Falls »Zahl« herauskommt, weckt er Dornröschen ebenfalls am Montag, versetzt sie dann wieder in einen Schlaf und weckt sie am Dienstag wieder, um sie dann nochmals bis Mittwoch zu narkotisieren. Der einzige Unterschied ist also, dass sie bei »Zahl« zweimal und bei »Kopf« einmal geweckt wird. Wichtig dabei ist: Durch das Schlafmittel hat Dornröschen keine Erinnerung daran, ob sie zuvor schon einmal geweckt wurde. Sie kann also nicht unterscheiden, ob Montag oder (falls Zahl fiel) Dienstag ist. Beim Aufwecken verrät der Experimentator Dornröschen nichts: weder den Ausgang des Münzwurfs noch den Tag. Er stellt ihr nach jedem Aufwachen aber eine Frage: Wie hoch ist die Wahrscheinlichkeit, dass die Münze »Kopf« gezeigt hat?"
  4. Bischoff, M.: Wie eine KI lernt, sich selbst zu erklären (2023) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 956) [ClassicSimilarity], result of:
          0.02620616 = score(doc=956,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=956)
      0.2 = coord(1/5)
    
    Abstract
    Große Sprachmodelle wie ChatGPT und Co. neigen dazu, Dinge zu erfinden. Durch einen neuen Ansatz können die Systeme ihre Antworten nun erklären - zumindest teilweise. Vorstellung von Modulen (Luminous, AtMan), die die Zusammenstellung der Aussagen in den Antworten analysieren und erklären.
  5. Bischoff, M.: KI lernt die Sprache der Mathematik (2020) 0.00
    0.004223162 = product of:
      0.021115808 = sum of:
        0.021115808 = product of:
          0.06334742 = sum of:
            0.06334742 = weight(_text_:f in 5904) [ClassicSimilarity], result of:
              0.06334742 = score(doc=5904,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.4403713 = fieldWeight in 5904, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5904)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Content
    Verweis auf: Lample, G., Charton, F.: Deep learning for symbolic mathematics. ArXiv: 11912.01412, 2019.
  6. Bischoff, M.: ¬Der doppelte Einstein (2023) 0.00
    0.0026315656 = product of:
      0.013157828 = sum of:
        0.013157828 = product of:
          0.03947348 = sum of:
            0.03947348 = weight(_text_:29 in 1063) [ClassicSimilarity], result of:
              0.03947348 = score(doc=1063,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.31092256 = fieldWeight in 1063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1063)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    25. 9.2023 18:29:25

Types