Rombuch
Rombuch
Rombuch
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
seinem Lehrer Whitehead hatte er schließlich eine Idee, über die sie ein ausführliches<br />
Buch, die ” Principia Mathematica“ schrieben. Ihre Idee nannten sie ” Typentheorie“. Sie<br />
ging ungefähr so:<br />
Die beiden wollten die Objekte der Welt in Stufen einteilen. Ganz konkrete Dinge,<br />
wie z.B. Häuser, Bücher oder auch Zahlen sollten die unterste Stufe bilden. Die zweite<br />
Stufe sollten die Mengen sein, die diese Dinge aus der ersten Stufe enthalten, z.B. die<br />
Menge der Häuser, der Bücher oder der Zahlen. Jede Menge sollte also nur Objekte<br />
einer niedrigeren Stufe enthalten. So konnte eine Menge wie die aus der Russellschen<br />
Antinomie gar nicht erst gebildet werden.<br />
Doch war auch diese Typentheorie kein Ausweg aus der Krise. Man hätte wichtige<br />
Teile der Mathematik nun nur beweisen können, indem man viele komplizierte<br />
Zusatzannahmen hinzunähme. Jederzeit könnte durch diese Zusatzannahmen wieder<br />
so ein alles zerschmetternder Widerspruch auftreten. Schweren Herzens mussten sich<br />
die Mathematiker das Scheitern des Logizismus eingestehen, d.h. sich von der Idee<br />
verabschieden, dass sich die gesamte Mathematik auf die Logik zurückführen ließe.<br />
Doch es war noch nicht aller Tage Abend. Andere Wege wurden beschritten, die der<br />
Mathematik aus der Krise helfen könnten. Ein Weg war der des Formalismus, den<br />
David Hilbert mit seinen Anhängern erkundete. Den Weg in die andere Richtung, den<br />
des Intuitionismus, beschritt ein Mann mit Namen Luitzen Egbertus Jan Brouwer.<br />
5.2 Der Vorabend der Grundlagenkrise<br />
Das Scheitern von Freges und später auch Russells logizistischer Grundlegung wird<br />
in einigen Teilen der mathematischen Welt als große Krise empfunden und ruft Verunsicherung<br />
hervor. Das ist aus unserer heutigen Auffassung von Mathematik heraus<br />
zunächst unverständlich. Man könnte doch einfach sagen: Na und? Diese Grundle-<br />
”<br />
gung ist gescheitert, aber das bedeutet nicht, dass es überhaupt keine gibt.“ Um diese<br />
Zusammenhänge zu erfassen, muss man sich die Ideengeschichte der Mathematik<br />
bis zu diesem Zeitpunkt genauer anschauen, insbesondere die Entwicklungen in der<br />
Analysis und der Logik im 19. Jahrhundert.<br />
Mit der Entdeckung und Entwicklung der Differential- und Integralrechnung durch<br />
Newton und Leibniz Ende des 17. Jahrhunderts macht die Mathematik, und speziell die<br />
Analysis, einen riesigen Sprung. Dieser Gedankenschritt ist wahrscheinlich der größte<br />
Einzelschritt in der Entwicklung der westlichen Mathematik seit der griechischen Antike.<br />
Durch die große Vielfalt der Anwendungen wird diese Entwicklung noch weiter<br />
vorangetrieben und Physik und Mathematik bereichern sich gegenseitig.<br />
Doch werden diese Errungenschaften nicht ohne einen Preis erstritten. Zwar ist vielen<br />
zeitgenössischen Mathematikern intuitiv klar, mit was operiert wird, doch fehlt eine<br />
einheitliche oder überhaupt eine formale Grundlage. Die Rigorosität, in deren Tradition<br />
sich die Mathematiker seit Euklid sehen, kann nicht mehr in dieser Schärfe eingehalten<br />
werden, vor allem, weil oft noch überhaupt nicht klar ist, mit was man operiert. In den<br />
Beweisen der zeitgenössischen Analytiker finden sich dann oft Ausdrucksweisen wie<br />
” das unendlich Kleine“ oder die Kurve, die im unendlich Kleinen gerade ist“. Auch<br />
”<br />
sind Grenzwertprozesse nicht immer klar. Es ist von Euler bekannt, dass er teilweise<br />
beim Rechnen auch mit nicht-konvergenten Reihen operiert hat. Dass dabei letztendlich<br />
46