Document (#26563)

Author
Pöppe, C.
Title
Ist jedes Rechteck ein Trapez? : Nein, sagt der normale Mensch. Ja, sgt der Mathematiker. Das ist vielleicht nicht normal - aber richtig
Source
Spektrum der Wissenschaft. 2003, H.4, S.98-100
Year
2003
Series
Nachgehakt
Content
"Die Fernsehshow »Wer wird Millionär?« veranlasste Anfang Februar Millionen Zuschauer, längst verstaubte Erinnerungen aus der Schule wieder hervorzukramen. Was genau war die Definition von »Trapez«? Man schaut im Lexikon nach und findet (zum Beispiel bei Brockhaus und Meyer nahezu gleich lautend): »ein ebenes Viereck mit zwei parallelen, nicht gleich langen Seiten«. Dann ist ein Rechteck offensichtlich kein Trapez. Das hatten die Aufgabensteller von »Wer wird Millionär?« auch so gesehen und daraufhin auf die Frage »Jedes Rechteck ist ein ...?« als eine der falschen Antwortmöglichkeiten »Trapez« angeboten. Die Raterin gab an dieser Stelle verunsichert das Spiel auf. Aber nach größeren Protesten sahen sich die Veranstalter veranlasst, die Frage zurückzuziehen und der Kandidatin das zu gewähren, was der Jurist »Wiedereinsetzung in den vorigen Stand« nennt. Ein Rechteck ist nämlich insbesondere einTrapez. Die Leute, die es wissen müssen, die Mathematiker, sind sich da ganz sicher. Das »Lexikon der Mathematik« (Spektrum Akademische rVerlag) spricht von einem »Viereck, in dem zwei gegenüberliegende Seiten parallel zueinander sind«, und es kommt eben nicht darauf an, ob die beiden Seiten gleich lang sind oder nicht. Wie kommt ein so auffälliger Fehler in gleich mehrere, eigentlich zuverlässige Lexika? Weil die Lexikon-Redakteure normal denken. Dazu gehört es auch, eine Sache mit dem engsten Begriff zu benennen, der auf sie passt. Eine Lungenentzündung ist eine Infektion und geht mit Fieber einher. Sie als »fieberhaften Infekt« zu bezeichnen wäre zwar korrekt, aber verfehlt, weil es das Wesentliche einer Lungenentzündung nicht trifft. Wer ein Rechteck als Trapez bezeichnet, gibt damit ebenfalls eine mangelhafte Beschreibung seines Objekts ab. Ein normaler Mensch verschweigt eben nicht das Wesentliche, zum Beispiel dass das vorliegende Viereck auch noch vier rechte Winkel hat. Warum können die Mathematiker das nicht einsehen und mit ihrer Definition von »Trapez« auf die im »Brockhaus« konkretisierte Denkweise des vernünftigen Normalmenschen einschwenken? Weil das unzweckmäßig wäre. Eine Gelegenheit, bei der Trapeze massenhaft Verwendung finden, ist die Integralrechnung. Man möchte den Inhalt der krummlinig begrenzten Fläche unter einer Kurve bestimmen. Dazu schneidet man die Fläche in dünne senkrechte Streifen und ersetzt die krumme Oberseite jedes Streifchens durch eine gerade Linie mit denselben Eckpunkten. Aus jedem Streifchen wird dadurch ein Trapez; dessen Flächeninhalt kann man mit der Flächenformel für Trapeze bestimmen und dann damit weiterrechnen. Und was ist, wenn zufällig-oder absichtlich-die Oberkante des Streifchens genau waagerecht liegt, sodass aus dem Trapez ein Rechteck wird? Nichts ist. Die Flächenformel gilt für alle Trapeze. Wenn sich unter ihnen ein Rechteck findet, soll es bitte nicht so tun, als sei es etwas Besonderes. Es kommt in diesem Kontext nämlich gar nicht darauf an. Ganz im Gegenteil: Wenn man zwischen den Fällen Trapez und Rechteck unterscheiden müsste, dann wäre die Einführung in die Integralrechnung doppelt so mühsam; und das kann kein Mensch ernsthaft wollen. Also müssen die Mathematiker darauf bestehen, dass RechteckeTrapeze sind. Das ist der tiefere Grund, warum mathematische Begriffsbildungen manchmal so albern anmuten. Die Fachleute missachten häufig die gute Regel »Bezeichne ein Ding präzise und nenne seine wesentlichen Eigenschaften«, weil sie sich nicht auf die Frage einlassen wollen, was eine wesentliche Eigenschaft ist. Das weiß man nämlich nicht immer so genau; es ändert sich auch häufig im Verlauf der Untersuchung. Und warum soll man eigens über einen Spezialfall reden, wenn er genauso zu behandeln ist wie der allgemeine Fall?
Dass dabei dem herkömmlichen Sprachverständnis Gewalt angetan wird, daran muss man sich gewöhnen. Von einer »Menge« spricht ein normaler Mensch nur, wenn es etwas gibt, das zu der Menge gehört; die Mathematiker kultivieren ihre leere Menge. Nach einer »Transformation« sieht dasTransformierte anders aus als zuvor, sollte man meinen. Falsch: Nichtstun ist ein - hoch geschätzter - Spezialfall einer Transformation. Eine »Kurve« ist etwas Krummes? Nicht notwendig. Definiert ist sie als der Weg eines Punktes, und der darf auch gerade sein. Besonders bizarr: Es gibt Mathematiker, die »linear« als Spezialfall von »nichtlinear« ansehen, und das mit gutem Grund: Lineare Gleichungssysteme sind, grob gesprochen, regelmäßig und mit Standardmethoden lösbar, nichtlineare dagegen nur in besonderen Fällen und mit spezialisierten Verfahren. Wer ein solches Verfahren entwirft, möchte es auf eine möglichst große Klasse von Problemen anwenden können. Wenn es bei den leichten schon nicht funktioniert, wie soll es erst bei den schweren gehen? Also wendet man jedes Verfahren für nichtlineare Gleichungen zuerst probeweise auf den linearen Spezialfall an. Mathematiker denken vielleicht nicht normal - aber richtig."
Field
Mathematik

Similar documents (author)

  1. Pöppe, C.: Späte Rehabilitation des Data Encryption Standard (1993) 5.68
    5.684104 = sum of:
      5.684104 = weight(author_txt:pöppe in 7582) [ClassicSimilarity], result of:
        5.684104 = fieldWeight in 7582, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.094566 = idf(docFreq=12, maxDocs=42596)
          0.625 = fieldNorm(doc=7582)
    
  2. Pöppe, C.: ¬Der Data Encryption Standard (1995) 5.68
    5.684104 = sum of:
      5.684104 = weight(author_txt:pöppe in 955) [ClassicSimilarity], result of:
        5.684104 = fieldWeight in 955, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.094566 = idf(docFreq=12, maxDocs=42596)
          0.625 = fieldNorm(doc=955)
    
  3. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 5.68
    5.684104 = sum of:
      5.684104 = weight(author_txt:pöppe in 4405) [ClassicSimilarity], result of:
        5.684104 = fieldWeight in 4405, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.094566 = idf(docFreq=12, maxDocs=42596)
          0.625 = fieldNorm(doc=4405)
    
  4. Pöppe, C.: ¬Ein großer Brückenschlag in der Algebra (2002) 5.68
    5.684104 = sum of:
      5.684104 = weight(author_txt:pöppe in 386) [ClassicSimilarity], result of:
        5.684104 = fieldWeight in 386, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.094566 = idf(docFreq=12, maxDocs=42596)
          0.625 = fieldNorm(doc=386)
    
  5. Pöppe, C.: ¬Die Geheimfolie (1998) 5.68
    5.684104 = sum of:
      5.684104 = weight(author_txt:pöppe in 2256) [ClassicSimilarity], result of:
        5.684104 = fieldWeight in 2256, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.094566 = idf(docFreq=12, maxDocs=42596)
          0.625 = fieldNorm(doc=2256)
    

Similar documents (content)

  1. Hülshoff, T.: Wut im Bauch (2002) 0.54
    0.5390183 = sum of:
      0.5390183 = product of:
        1.1858401 = sum of:
          0.053202294 = weight(abstract_txt:nicht in 2024) [ClassicSimilarity], result of:
            0.053202294 = score(doc=2024,freq=1.0), product of:
              0.08557554 = queryWeight, product of:
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.021507455 = queryNorm
              0.62169975 = fieldWeight in 2024, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.15625 = fieldNorm(doc=2024)
          0.08337353 = weight(abstract_txt:aber in 2024) [ClassicSimilarity], result of:
            0.08337353 = score(doc=2024,freq=1.0), product of:
              0.115455575 = queryWeight, product of:
                1.1615359 = boost
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.021507455 = queryNorm
              0.7221265 = fieldWeight in 2024, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.15625 = fieldNorm(doc=2024)
          0.24975927 = weight(abstract_txt:mensch in 2024) [ClassicSimilarity], result of:
            0.24975927 = score(doc=2024,freq=1.0), product of:
              0.23992594 = queryWeight, product of:
                1.6744175 = boost
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.021507455 = queryNorm
              1.0409849 = fieldWeight in 2024, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.15625 = fieldNorm(doc=2024)
          0.3757793 = weight(abstract_txt:richtig in 2024) [ClassicSimilarity], result of:
            0.3757793 = score(doc=2024,freq=1.0), product of:
              0.3150296 = queryWeight, product of:
                1.9186724 = boost
                7.634164 = idf(docFreq=55, maxDocs=42596)
                0.021507455 = queryNorm
              1.1928381 = fieldWeight in 2024, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.634164 = idf(docFreq=55, maxDocs=42596)
                0.15625 = fieldNorm(doc=2024)
          0.42372566 = weight(abstract_txt:sagt in 2024) [ClassicSimilarity], result of:
            0.42372566 = score(doc=2024,freq=1.0), product of:
              0.34128663 = queryWeight, product of:
                1.997031 = boost
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.021507455 = queryNorm
              1.2415537 = fieldWeight in 2024, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.15625 = fieldNorm(doc=2024)
        0.45454547 = coord(5/11)
    
  2. Hauer, M.: Collaborative Catalog Enrichment : Digitalisierung und Information Retrieval (2011) 0.25
    0.25293863 = sum of:
      0.25293863 = product of:
        0.55646497 = sum of:
          0.030095762 = weight(abstract_txt:nicht in 1161) [ClassicSimilarity], result of:
            0.030095762 = score(doc=1161,freq=2.0), product of:
              0.08557554 = queryWeight, product of:
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.021507455 = queryNorm
              0.35168648 = fieldWeight in 1161, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.0625 = fieldNorm(doc=1161)
          0.033349413 = weight(abstract_txt:aber in 1161) [ClassicSimilarity], result of:
            0.033349413 = score(doc=1161,freq=1.0), product of:
              0.115455575 = queryWeight, product of:
                1.1615359 = boost
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.021507455 = queryNorm
              0.2888506 = fieldWeight in 1161, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.0625 = fieldNorm(doc=1161)
          0.09990371 = weight(abstract_txt:mensch in 1161) [ClassicSimilarity], result of:
            0.09990371 = score(doc=1161,freq=1.0), product of:
              0.23992594 = queryWeight, product of:
                1.6744175 = boost
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.021507455 = queryNorm
              0.41639397 = fieldWeight in 1161, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.0625 = fieldNorm(doc=1161)
          0.16949026 = weight(abstract_txt:sagt in 1161) [ClassicSimilarity], result of:
            0.16949026 = score(doc=1161,freq=1.0), product of:
              0.34128663 = queryWeight, product of:
                1.997031 = boost
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.021507455 = queryNorm
              0.49662146 = fieldWeight in 1161, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.0625 = fieldNorm(doc=1161)
          0.22362585 = weight(abstract_txt:normale in 1161) [ClassicSimilarity], result of:
            0.22362585 = score(doc=1161,freq=1.0), product of:
              0.41055447 = queryWeight, product of:
                2.190335 = boost
                8.715076 = idf(docFreq=18, maxDocs=42596)
                0.021507455 = queryNorm
              0.5446923 = fieldWeight in 1161, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.715076 = idf(docFreq=18, maxDocs=42596)
                0.0625 = fieldNorm(doc=1161)
        0.45454547 = coord(5/11)
    
  3. Nørretranders, T.: Spüre die Welt : die Wissenschaft des Bewußtseins (1994) 0.22
    0.21673483 = sum of:
      0.21673483 = product of:
        0.59602076 = sum of:
          0.046074536 = weight(abstract_txt:nicht in 1892) [ClassicSimilarity], result of:
            0.046074536 = score(doc=1892,freq=3.0), product of:
              0.08557554 = queryWeight, product of:
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.021507455 = queryNorm
              0.53840774 = fieldWeight in 1892, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.078125 = fieldNorm(doc=1892)
          0.041686766 = weight(abstract_txt:aber in 1892) [ClassicSimilarity], result of:
            0.041686766 = score(doc=1892,freq=1.0), product of:
              0.115455575 = queryWeight, product of:
                1.1615359 = boost
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.021507455 = queryNorm
              0.36106324 = fieldWeight in 1892, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.078125 = fieldNorm(doc=1892)
          0.21186283 = weight(abstract_txt:sagt in 1892) [ClassicSimilarity], result of:
            0.21186283 = score(doc=1892,freq=1.0), product of:
              0.34128663 = queryWeight, product of:
                1.997031 = boost
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.021507455 = queryNorm
              0.62077683 = fieldWeight in 1892, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.078125 = fieldNorm(doc=1892)
          0.2963966 = weight(abstract_txt:nein in 1892) [ClassicSimilarity], result of:
            0.2963966 = score(doc=1892,freq=1.0), product of:
              0.42690536 = queryWeight, product of:
                2.2335258 = boost
                8.886927 = idf(docFreq=15, maxDocs=42596)
                0.021507455 = queryNorm
              0.6942911 = fieldWeight in 1892, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.886927 = idf(docFreq=15, maxDocs=42596)
                0.078125 = fieldNorm(doc=1892)
        0.36363637 = coord(4/11)
    
  4. Software soll Bilder automatisch beschriften (2004) 0.20
    0.20352113 = sum of:
      0.20352113 = product of:
        0.5596831 = sum of:
          0.026601147 = weight(abstract_txt:nicht in 2040) [ClassicSimilarity], result of:
            0.026601147 = score(doc=2040,freq=1.0), product of:
              0.08557554 = queryWeight, product of:
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.021507455 = queryNorm
              0.31084988 = fieldWeight in 2040, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.9788783 = idf(docFreq=2165, maxDocs=42596)
                0.078125 = fieldNorm(doc=2040)
          0.041686766 = weight(abstract_txt:aber in 2040) [ClassicSimilarity], result of:
            0.041686766 = score(doc=2040,freq=1.0), product of:
              0.115455575 = queryWeight, product of:
                1.1615359 = boost
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.021507455 = queryNorm
              0.36106324 = fieldWeight in 2040, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.6216097 = idf(docFreq=1138, maxDocs=42596)
                0.078125 = fieldNorm(doc=2040)
          0.21186283 = weight(abstract_txt:sagt in 2040) [ClassicSimilarity], result of:
            0.21186283 = score(doc=2040,freq=1.0), product of:
              0.34128663 = queryWeight, product of:
                1.997031 = boost
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.021507455 = queryNorm
              0.62077683 = fieldWeight in 2040, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.9459434 = idf(docFreq=40, maxDocs=42596)
                0.078125 = fieldNorm(doc=2040)
          0.2795323 = weight(abstract_txt:normale in 2040) [ClassicSimilarity], result of:
            0.2795323 = score(doc=2040,freq=1.0), product of:
              0.41055447 = queryWeight, product of:
                2.190335 = boost
                8.715076 = idf(docFreq=18, maxDocs=42596)
                0.021507455 = queryNorm
              0.68086535 = fieldWeight in 2040, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.715076 = idf(docFreq=18, maxDocs=42596)
                0.078125 = fieldNorm(doc=2040)
        0.36363637 = coord(4/11)
    
  5. Geuter, J.: Nein, Ethik kann man nicht programmieren (2018) 0.18
    0.18382964 = sum of:
      0.18382964 = product of:
        1.011063 = sum of:
          0.29971114 = weight(abstract_txt:mensch in 27) [ClassicSimilarity], result of:
            0.29971114 = score(doc=27,freq=1.0), product of:
              0.23992594 = queryWeight, product of:
                1.6744175 = boost
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.021507455 = queryNorm
              1.2491819 = fieldWeight in 27, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.6623034 = idf(docFreq=147, maxDocs=42596)
                0.1875 = fieldNorm(doc=27)
          0.7113519 = weight(abstract_txt:nein in 27) [ClassicSimilarity], result of:
            0.7113519 = score(doc=27,freq=1.0), product of:
              0.42690536 = queryWeight, product of:
                2.2335258 = boost
                8.886927 = idf(docFreq=15, maxDocs=42596)
                0.021507455 = queryNorm
              1.6662987 = fieldWeight in 27, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.886927 = idf(docFreq=15, maxDocs=42596)
                0.1875 = fieldNorm(doc=27)
        0.18181819 = coord(2/11)