Die Peano-Axiome als Hinweis für den nichtmenschlichen Ursprung der Zahlen

Timo Ollech

26.01.2001

[Die folgenden Gedanken kamen mir während meiner intensiven Beschäftigung mit theoretischer Informatik. Die Grundlagen der Informatik sind zugleich diejenigen der Mathematik, jedenfalls wenn es um den Begriff der Berechenbarkeit geht.]
Unter Formalisten ist der Standpunkt weit verbreitet, die Zahlen als menschliche Konstruktionen bzw. Erfindungen aufzufassen. Schließlich kann man alle Arten von Zahlen rein formal und axiomatisch definieren. Schauen wir uns daher einmal die Peano-Axiome zur Begründung der natürlichen (also der positiven ganzen) Zahlen an. Sie stützen sich weitgehend auf Überlegungen von Richard Dedekind, die dieser in dem berühmten Aufsatz »Was sind und was sollen die Zahlen?« formulierte.
Man definiert die Menge der natürlichen Zahlen, indem man
  1. ein Element 0 ∈ ℕ besonders auszeichnet (wahlweise auch die 1) und
  2. eine injektive Abbildung ν:ℕ → ℕ∖{0}, die Nachfolgerfunktion auf , definiert und für alle Teilmengen N ⊆ ℕ fordert: (0 ∈ N ∧ ∀ n ∈ Nν(n) ∈ N) → N = ℕ
In Worten heißt das, daß die natürlichen Zahlen die Null und mit jeder Zahl auch deren Nachfolger (die nächstgrößere Zahl) enthalten, also 0 ∈ ℕ → 1 ∈ ℕ, 1 ∈ ℕ → 2 ∈ ℕ usw. Die Zahlen sind also folgendermaßen definiert: 1: = ν(0), 2: = ν(ν(0)), … Man kann ν auch als  + 1 schreiben, dann ist 1: = 0 + 1, 2: = 0 + 1 + 1, …
Das scheint alles rein formal, ohne eine a priori-Bedeutung zu sein. Die Ziffern 1, 2, 3, … sind auch wirklich reine Konvention ohne inhärente Bedeutung. Anders sieht es auf den rechten Seiten der Gleichungen aus: Die Zahl 1 ist definiert als die einmalige Anwendung der Nachfolgerfunktion ν auf die 0, 2 entsprechend als zweimalige Anwendung von ν usw. Auch die Bedeutung der 0 ergibt sich aus der 0-maligen Anwendung von ν. Natürlich kann man in diesem formalen System rechnen, ohne sich bewußt zu sein, daß man rechnet — sonst könnten die Computer es ja auch nicht. Dennoch ist sich jedes Kind, das zählen lernt, dessen bewußt.
Man kann die natürlichen Zahlen weiter auf die Mengentheorie zurückführen, indem man 0: = ∅ setzt und ν(n): = n∪{n} definiert. Dann ist 1: = ∅∪{∅} = {∅, {∅}}, 2: = ∅∪{∅}∪{∅∪{∅}} = {∅, {∅}, {∅, {∅}}} usw. Auch hier wird die Zahl n durch die n-malige Anwendung der Funktion ν definiert.
Zahlen entstehen durch Zählen. Sie sind somit kein Ding, das man irgendwie greifbar machen kann, das man definieren kann. Definiert werden lediglich Zahlsymbole durch den Prozeß des Zählens.
Ein formales System wie die Prädikatenlogik oder die Arithmetik besteht immer aus einer Symbolmenge und einer Operatormenge, die beide notwendig endlich sein müssen, wie u.a. Alan Turing überzeugend dargelegt hat. Die Operatoren sind wie auch die Symbole rein formal und mit keinerlei Bedeutung versehen. Erst die Interpretation eines formalen Ausdrucks wie z.B. ν = 0(( − 1)ν)/(2ν + 1) = (π)/(4) verschafft ihm eine Bedeutung, und es sind oft unterschiedliche Interpretationen möglich.
Rechnen in einem formalen System ist schrittweises Anwenden von Operatoren auf Symbole. Man kann bei jeder Rechnung die Anzahl der Schritte zählen. Der Prozeß des Zählens — und damit auch die Idee der Zahl — liegt demnach jedem Formalismus implizit zugrunde. Er tritt unweigerlich zu Tage, sobald Menschen beginnen zu rechnen, auch wenn sie es noch so abstrakt und formal tun.
Niemand hat sich die Zahlen ausgedacht; sie wurden entdeckt, und noch heute entdeckt jedes Kind sie aufs Neue.